JP2004040182A - Moving picture storage method and moving picture storage apparatus - Google Patents
Moving picture storage method and moving picture storage apparatus Download PDFInfo
- Publication number
- JP2004040182A JP2004040182A JP2002190538A JP2002190538A JP2004040182A JP 2004040182 A JP2004040182 A JP 2004040182A JP 2002190538 A JP2002190538 A JP 2002190538A JP 2002190538 A JP2002190538 A JP 2002190538A JP 2004040182 A JP2004040182 A JP 2004040182A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- additional information
- file
- dubbing
- storage medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、他の記憶媒体から転送された映像や音声を再生する動画蓄積装置、動画蓄積方法、動画蓄積装置の制御プログラムおよびその制御プログラムを格納したコンピュータ可読の記憶媒体に関する。
【0002】
【従来の技術】
近年ハードディスクの大容量化、高速化、また、コンピューター技術の進歩により動画をハードディスクに記憶して再生することが可能になってきつつある。例えば、家庭用ビデオカメラで撮影した映像や放送される映像をハードディスクに録画蓄積(ダビング)し、ダビングした映像を再生することができるハードディスクレコーダーが実現可能となってきた。
【0003】
ところで、今まで一般の家庭において旅行やイベントなどを記憶に残すためビデオカメラで撮影した場合、撮影した日にだけ再生して、あとはあまり見ることがないという場合が多かった。この理由は、撮影したメディアの入れ替えが面倒であったり、再生を繰り返すことによる記憶メディアの劣化が気になったためである。しかし、上記ハードディスクレコーダーのような動画蓄積装置があれば、例えば、ビデオカメラで撮影した映像をその日のうちに再生しながらハードディスクレコーダーにダビングしておけば、後日、メディアの入れ替えも不要であり、再生を繰り返すことによる記憶メディアの劣化の心配もなく、好きな箇所から自由に撮影した映像の動画を再生させることができ、上記の問題を解消することが可能となる。
【0004】
しかしながら、従来のハードディスクレコーダーでは、例えばビデオカメラで撮影した映像をハードディスクにデータをダビングしている間は、ビデオカメラで撮影した映像を再生をし続ける必要があった。また、途中で再生を止めたり、ビデオカメラに装着された記憶メディアを交換したり、早回しなどのトリックプレイを行うと、その時点で映像のダビングが終了してしまうか、あるいは、止めた映像や早回しした映像そのものがダビングされてしまうという不具合を生じた。
【0005】
一方、動画には付属情報が付加されており、この付属情報は、映像、音声に対して関連付けられた文字や画像などの情報であり、基本的な種類と記述方法はMPEG7で規格化が進められている。このような付属情報の利用方法としては、例えば、動画ファイルの検索を容易にするために、動画ファイルの付属情報を利用して、文字による検索を行う方法が考えられる。また別の利用方法としては、動画ファイルの付属情報を利用して動画中の所望シーンをすばやく検索し、この所望シーンを縮小した静止画で一覧表示することで動画の概要を把握する方法も考えられる。
【0006】
付属情報のダビングに関しては、例えば、特開平8−116510号では、サブコードデータや映像及び音声のAUXデータ、メモリ付カセットではカセットに関する情報を付属情報として扱い、従来はダビングの対象とはならなかった付属情報を動画と共に完全にコピーする方法が開示されている。
【0007】
【発明が解決しようとする課題】
しかしながら、従来のハードディスクレコーダーでは、上記説明したメディア上の付属情報を利用して所定の機能を実行する場合には、例えば、家庭用のビデオカメラなどで新しく撮影して記憶されているソースメディアから動画データをハードディスクレコーダーに完全にダビングしてから、そのダビングした動画データに含まれる付属情報を抽出して利用していた。そのため、付属情報を入手するためには、ソースメディアから動画データをハードディスクレコーダーに完全にダビングする必要があり、当然のことながら、付属情報の完全なダビングには動画データをダビングする時間と同等の時間を必要とした。
【0008】
本発明は、上記従来技術の問題点を解決することを出発点としてなされたものであり、その目的は、動画を検索するなどの機能を、比較的短いダビング時間でユーザによる機器操作の煩わしさなしに利用できる動画蓄積方法および動画蓄積装置を提供することである。
【0009】
【課題を解決するための手段】
上記目的を達成するための本発明に係る一実施形態の動画蓄積方法は、以下の構成を有する。すなわち、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする場合に、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングすることを特徴とする。
【0010】
ここで、前記付属情報は第1付属情報と第2付属情報とを含み、該第1付属情報は、前記動画ファイルと独立の付属情報ファイルと、前記動画ファイルの先頭部または末尾部に含まれる付属情報とからなり、該第2付属情報は、前記動画データの先頭部と末尾部以外に含まれる付属情報からなる。また、前記動画データの先頭部と末尾部に含まれる付属情報は、動画ファイル全体に関する付属情報であり、前記動画データの先頭部と末尾部以外に含まれる付属情報は、前記動画ファイルの各画像フレームに関する付属情報である。また、前記動画ファイル全体に関する付属情報は、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態を含む。また、前記各フレームに関する付属情報は、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態を含む。また、前記第1付属情報は、プレイリストや欠損リストを含む。また、前記付属情報をダビングする際には、前記第1の記録媒体に記録された動画ファイルとダビングする付属情報のファイルオフセットが一致するように同期をとってダビングする。また、前記付属情報をダビングする際には、前記ダビングする付属情報をMPEG7におけるMedia Instanceタグとして表現し、前記動画データに含まれる動画ファイルの末尾の付属情報としてダビングする。また、前記第1及び/又は第2記憶媒体は、ランダムアクセス可能な記憶媒体である。また、転送中に正常な転送ができないと判断する場合は、前記転送を停止する工程と、前記転送停止により発生する未転送部分を示す情報を保持する工程とを更に有する。
【0011】
上記目的を達成するための本発明に係る一実施形態の動画蓄積装置は、以下の構成を有する。すなわち、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビング手段と、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビング手段とを有することを特徴とする。
【0012】
上記目的を達成するための本発明に係る一実施形態の制御プログラムは、以下の構成を有する。すなわち、動画蓄積装置を制御する制御プログラムであって、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする。
【0013】
上記目的を達成するための本発明に係る一実施形態のコンピュータ可読記憶媒体は、以下の構成を有する。すなわち、動画蓄積装置を制御する制御プログラムを格納したコンピュータ可読の記憶媒体であって、前記制御プログラムは、第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする。
【0014】
【発明の実施の形態】
<第1実施形態>
以下、本発明の実施形態の動画蓄積装置100について図面に基づいて詳細に説明する。なお以下の説明では、ダビングのことをキャプチャと呼ぶ場合もある。
【0015】
[動画蓄積装置のハードウエア構成:図1]
図1は本実施形態の動画蓄積装置100のハードウエア構成を示している。図1に基づいて、動画蓄積装置100のハードウエアの構成について説明する。
【0016】
101はCPUであり、ROMやRAMに格納された制御プログラムを実行する中央演算処理部である。102はROMであり、本発明によるプログラムやデータが格納される。103は一時的なデータを記憶するRAMである。動画編集などの為の一時的なダビングを目的とした場合にはRAMの一部の領域をダビングする際の動画、および付属情報、複製情報を記憶する目的で使用することができる。
【0017】
104はハードディスク(第2の記憶媒体)であり、映像や音声や付属情報を記憶する。本実施形態では、ダビングする際、動画を録画する目的で使用されるため、DVD−RAM、CD−RW、MO、その他のストレージデバイス、また、ネットワークに接続されたストレージデバイスであってもよい。105はビデオカメラである。本実施形態では、ダビングする際、録画した動画の再生を行う目的で接続するため、ビデオデッキ等のAV機器、またはパーソナルコンピューター等であってもよい。
【0018】
106はIEEE1394インターフェースであり、ビデオカメラ105と接続され、ビデオカメラ105より動画映像音声情報および付属情報の帯域を確保してリアルタイムに確実に入出力したり、ビデオカメラ105を操作する制御コマンドの入出力を行ったり、ビデオカメラ105のソースメディア(第1の記憶媒体)がイジェクトされたり、ビデオカメラ105の電源ON/OFFなどの状態を知ることができ、さらに、接続されたストレージデバイス上のデータをファイルとして扱い、ファイルの一覧、ファイルの属性やファイルの任意の位置のデータを入出力すること等が可能である。目的を達すればIEEE1394インターフェースの代わりに、USBなどその他の有線インターフェースを用いても良いし、802.11やHomeRFなどの無線インターフェースを使用することもできる。
【0019】
107はスイッチやつまみ、ボタンなどから構成される操作パネルである。108はシリアルインターフェースであり、操作パネル107からの信号をCPU101で処理可能なデジタルデータに変換する。109はリモコンであり、ボタンからの押下情報を赤外線で発信する。110は、IrDAインターフェースであり、リモコン109の発信する赤外線を受信し、CPU101で処理可能なデジタルデータに変換する。
【0020】
111は映像や音声を出力するTVである。TV111は、パーソナルコンピュータ向けの高解像度のディスプレイや携帯端末向けなど低解像度のディスプレイ、ブラウン管や液晶ディスプレイ、カラーモニター、白黒モニターなどでもよい。112は出力部で、TV111で表示する機能メニューや動作モードおよび、符号化された動画データを復号し映像や音声信号を出力する。
【0021】
113はフロッピーディスクやCD−ROMなどのリムーバブルディスクドライブ(FDD)であり、後述するアプリケーションプログラム媒体からの読み出しなどに用いられる。114はネットワークインターフェイス(Net−I/F)であり、後述するインターネットなどのネットワークシステムとのデータ転送を行う為のデータ制御や診断を行う。115は上述した各ユニット間を接続する為のI/Oバス(アドレスバス、データバスおよび制御バス)である。
【0022】
[リモコン:図2]
図2はリモコン109の概観を示すものである。
【0023】
201はメニューボタンでメニューボタン201を押下すると、ビデオ操作以外の比較的使用頻度の低い機能の階層化された一覧がTV111上に表示される。202はカーソル移動ボタンで、TV111上に表示される注目点をそれぞれの方向に移動する。203は実行ボタンで、カーソルのあるアイテムを指定したり、操作遷移を進めるものである。204は取消ボタンで、実行ボタン203による指定をキャンセルしたり、操作遷移を前の状態に戻すものである。
【0024】
205はビデオ操作ボタンで、それぞれ、早戻し、再生、早回し、録画、ポーズ、停止を指示するものである。なお、ビデオ操作ボタンは、動画蓄積装置100の操作のほか、IEEE1394インターフェース106を通してビデオカメラ105にビデオ操作制御コマンドを送ることでビデオカメラ105を操作することも可能である。動画蓄積装置100またはビデオカメラ105のどちらを操作するかはターゲットデバイスモードの状態による。例えば、ターゲットデバイスモードを再生側に設定すれば、ビデオカメラ105に搭載されたソースメディアに記憶された動画データを動画蓄積装置100に転送することができる。206は電源ボタンであり、動画蓄積装置100の電源のON/OFFを行う。
【0025】
リモコン109を用いて機能を実行する場合には、メニューボタン201を押下し、TV111に表示される階層化された機能一覧からカーソル移動ボタンにより注目点を移動することで機能を選択し、実行ボタン203を押下することで機能コマンドが発生し実行される。操作パネル107にもリモコンと同等のボタンやリモコンで選択可能な機能を割り当てたボタンやつまみが配置されている。
【0026】
なお機能コマンドの入力部としてはリモコン109や操作パネル107の各ボタンなどのほかに、パソコンのキーボードやマウスのような入力部によって構成してもよく、より多くのボタンを配し、携帯性には劣るが操作性を向上した操作盤によって構成してもよい。
【0027】
[動画データの構成例:図3]
次に記憶媒体に記憶される動画データの例を図3に示す。
【0028】
動画データは主に動画ファイル301(図3(a))とプレイリストファイル302(図3(b))の2種類のファイルで構成される。動画ファイル301は本実施形態ではMPEG2規格のトランスポートストリーム形式によって映像(Video)、音声(Audio)、付属情報が多重化されたファイルとして記憶されている。なお、動画ファイル301の形式はMPEG2に限ったものではなく、DVやその他の形式であってもよい。
【0029】
(動画ファイル:図3(a))
動画ファイルは、トランスポートストリーム形式の場合には連続した固定長のTSパケットで構成され、各TSパケットのヘッダには本体データの種別をあらわす識別情報やクロック情報が含まれ、識別情報によって、映像(Video)、音声(Audio)、付属情報、またその他に、動画再生手段が追加した独自のデータを識別し、分離することができる。
【0030】
この動画ファイル301は、ビデオカメラ105において録画が開始されるたびに作成され、原則として1ショットが1動画ファイルに対応する。後に編集などの処理を行った場合は1ショットが複数の動画ファイルで構成され、プレイリストファイル302により再生方法が定義される。動画ファイルのファイル名は、例えば、録画が開始された日付と時間から決められる。一例を示せば、20010523201595.MP2のように付けられる。ただし、以下の動作説明の図面においては、ファイル名を簡略して説明するため、桁数の少ない数字をファイル名として用いて表現している。又、MACアドレス、IPv4やIPv6等のIPアドレスのような装置を識別する情報や、メディアにユニーク性を保証するメディア識別情報を記録しておき、それらと日付時刻を組み合わせてユニークなファイル名を生成してもよいし、単純な連番でもよい。
【0031】
メディアの識別はこのようなファイル名がメディアに存在するか否かによって識別する。装置の識別番号と時刻情報から識別情報を生成するとより確実である。映像(VIDEO)、音声(AUDIO)には、同期を取る為にそれぞれタイムスタンプ情報が格納されている。
【0032】
(付属情報:表1)
次に、付属情報について表1を参照しながら説明する。
【0033】
【表1】
【0034】
付属情報のうち動画ファイル全体に関する付属情報(第1付属情報)は、先頭部分、末尾部分に配置される。先頭部分の付属情報は、動画ファイルの先頭TSパケットからTSパケット単位でファイル末尾方向へ走査し、データサイズ情報を獲得するか、付属情報の終端を示すデリミタによって範囲を特定できる。
【0035】
末尾部の付属情報は、動画ファイルの末尾のTSパケットからTSパケット単位でファイル先頭方向へ捜査し、データサイズ情報を獲得するか、付属情報の先頭を示すデリミタによって範囲を特定できる。
【0036】
画像フレームや任意の区間に関する情報(第2付属情報)は、対応する画像データや音声データの近傍に配置される様に多重化される。
【0037】
当然の事ながら、付属情報の一部またはすべてを動画ファイルとは独立したファイルとして配置してもよい。
【0038】
動画ファイル全体に関する付属情報(第1付属情報)には、たとえば、動画の再生にかかる時間、撮影日時、撮影時のAEモード、などカメラの撮影状態が格納される。また付属情報の修正や更新がされた場合、その差分情報が動画ファイル末尾に追加される。
【0039】
各フレームに関する付属情報(第2付属情報)は、ズームなどの操作情報、撮影時の絞り、シャッタースピード、ピントなどのリアルタイムに変動するカメラの撮影状態が格納される。また、複数の動画ファイルを対象とした付属情報(第1付属情報)としてプレイリストや欠損情報リストがある。これらの情報は動画編集、解析、動画検索のための手がかりとして使用される。
【0040】
表2にズーム等の操作情報の記述内容を挙げる。
【0041】
【表2】
【0042】
付属情報の符号化形式は、それぞれのビットに意味を定義したバイナリデータでもよく、テキストデータでもよい。テキストデータの場合は、XML形式の独自の型定義によって表現してもよく、MPEG7規格にに準拠する型定義を用いて表現してもよい。
【0043】
(プレイリストファイル:図3(b))
プレイリストファイル302は、1つまたは複数の動画ファイルの任意の範囲または全部を指定したリストであり、動画再生処理は、このリストに従って動画をシームレスに再生することが可能である。
【0044】
プレイリストファイル302に格納するデータの内容は本実施形態では動画ファイル名、開始タイム、終了タイムからなるリストである。タイムは時:分:秒:フレーム番号の形式で格納される。なお動画区間が特定できる情報であれば、開始タイム、終了タイムの代わりに、クロック情報や、ファイルオフセット、記憶媒体上の物理的、論理的な位置情報を用いてもよい。
【0045】
[動画蓄積処理のメイン動作手順例:図4]
図4は、本実施形態の動画蓄積装置100において、本体の電源を投入してからCPU101がRAM103を用いてROM102に格納された動画蓄積処理の制御プログラムを実行するフローを示している。また、図7は、例えばソースメディア上の動画データ一覧の一例を示すものである。
【0046】
なお、以下の説明では、ビデオカメラ105に搭載されているソースメディア(第1記憶媒体)に記憶されている動画データを動画蓄積装置100のハードディスク104(第2記憶媒体)にダビング(キャプチャ)する例を用いて説明する。
【0047】
以下、図4に基づいて制御プログラムを実行するフローを詳細に説明する。
【0048】
電源を投入すると、ステップS401に進み、各種インターフェースの初期化などのシステムの初期化を行う。次に、ステップS402に進み、操作パネル114またはリモコン109からコマンドが入力されたか否かを調べ、コマンドが入力された場合にはステップS403に進み、入力されたコマンドの識別をし、入力されたコマンドに応じて、ステップS404、ステップS407、ステップS410またはステップS409の各処理を行う。
【0049】
(キャプチャ開始コマンド処理)
まずステップS403のコマンドの識別で、入力されたコマンドがソースメディア(第1記憶媒体)から第2記憶媒体にダビングを開始するためのキャプチャ開始コマンドであった場合(例えば、図2の録画が押された場合)には、ステップS404〜S406でダビング開始の準備処理を行う。
【0050】
すなわち、まず、ステップS404に進み、キャプチャモード中であることを示すフラグをONにする。このフラグを参照することにより、以降の処理でキャプチャモード処理を行う。次にステップS405に進み、ターゲットデバイスモードを再生側すなわちビデオカメラに設定する。以降の操作パネル107やリモコン109からのビデオ操作は再生側であるビデオカメラ105を操作するようになる。
【0051】
次にステップS406に進み、再生側のビデオカメラ105に装着されたソースメディア(第1記憶媒体)からメディア情報を取得する。ただし、転送元であるソースメディアのすべての情報を入手することは転送時間の制約から不可能なので、ここでは、動画ファイルの全リスト(図7の(a)参照)、およびプレイリストファイル(図7の(b)参照)の内容をハードディスク104(第2記憶媒体)に転送する。尚、この場合は、ダビング停止後の再開時には、ステップS406は実行されない。ステップS406でソースメディア(第1記憶媒体)からどれだけのデータを得るかは、転送時間の制約から選択される。
【0052】
次に、ステップS402に戻り、次のコマンドの入力があるまで待機する。
【0053】
(ソースメディアの動画データ一覧:図7)
なお、図7は、ステップS406において、ソースメディア(第1記憶媒体)から取得され、ハードディスク104に蓄積される情報の例である。図中、701はソースメディアに格納されているファイルの一覧である。拡張子が「.mp2」であるものが動画ファイルであり、拡張子が「.lst」であるものがプレイリストファイルである。また702は、プレイリストファイルの内容例を示すものである。
【0054】
(通常再生コマンド処理)
一方、ステップS403の入力されたコマンド識別で、入力されたコマンドが通常再生開始コマンドだった場合(図2の再生が押された場合)には、ステップS407に進み、キャプチャモードを調べる。
【0055】
次に、ステップS407において、キャプチャモードがONでなかった場合には、何もしないでステップS409に進み、キャプチャモードがONであった場合は、ステップS408でキャプチャ開始処理をしてからステップS409に進んで再生処理をスタートさせてから、ステップS402に戻り、次のコマンドの入力があるまで待機する。
【0056】
なおステップS408におけるキャプチャ開始処理は以下の通りである。まず、キャプチャ開始処理は受け側のハードディスク104(第2記憶媒体)に動画ファイルを作成し、IEEE1394インターフェースから受信する動画データをハードディスク104にダビング可能な状態にして、図9で後述するキャプチャ済みリストに新たなファイル名とキャプチャ開始時間を追加する。ダビング可能な状態となったら再生側のビデオカメラ105に再生コマンドを送りビデオカメラ105のソースメディア(第1記憶媒体)の動画データのダビング(キャプチャ)を開始する。
【0057】
なお、キャプチャしたデータの動画ファイルへの書き込みは論理的なデータのまとまりを単位として行う。これについて詳細は後述するが、まとまりが完成するまではRAM103に一時的に蓄積しておく。キャプチャが中断したときにデータがまとまりの途中で切れた状態のままハードディスクに蓄積することがない様にする。また記憶する動画ファイルは、再生側の動画ファイルが切り替わる箇所で一旦クローズし、再生側と同様に新しい動画ファイルに切り替える。記憶するファイル名は再生側のファイル名の後に連番を付けたものとし、記憶した動画ファイル名から再生側の動画ファイル名が機械的に特定できる様にする。
【0058】
従って、新しい動画ファイルに切り替える時点(例えば、図8のP2やP3)で、キャプチャ済みリストの最後のファイルの長さが記入され、キャプチャ済みリストに新たなファイル名が開始時間(0)と共に追加される。
【0059】
(トリックプレイ開始コマンド等の処理)
一方、ステップS403のコマンド評価で入力されたコマンドが早回し、早戻し等のトリックプレイ開始コマンド、停止コマンド、ポーズコマンド、ソースメディアイジェクトコマンド、電源OFFコマンドなどの正常なダビングができないコマンドであった場合は、ステップS410に進む。
【0060】
ステップS410において、キャプチャモードを調べ、キャプチャモードがONでなかった場合には何もしないでステップS414に進み、キャプチャモードがONであった場合は、ステップS411〜S413の処理をしてからステップS414に進む。ステップS414では、各々のコマンド処理を開始させてからステップS402に戻り、次のコマンドの入力があるまで待機する。
【0061】
なおステップS411〜ステップS413の処理は以下の通りである。
【0062】
すなわち、キャプチャモードがONであった場合は、ステップS411でキャプチャ処理を終了し、動画ファイルをクローズする。このキャプチャの終了処理では、RAM103に残っているハードディスクにダビングする前の不完全な動画データのまとまりは破棄して、ステップS408あるいは動画ファイルが切り替わった時点で、新たに追加したキャプチャ済みリストのファイルに長さを記入する。次に、ステップS412で、欠損リストの作成処理を行う。なおこの欠損リストの作成処理は、図5を用いて詳細に説明するのでここでの説明は省略する。次にステップS413で、キャプチャモード中を示すフラグをOFFにする。
【0063】
(その他のコマンドの処理)
一方、ステップS403のコマンド評価で入力されたコマンドがその他のコマンドであった場合は、何もしないでステップS415に進み、入力されたコマンドの処理を行ってからステップS402に戻り、次のコマンドの入力があるまで待機する。
【0064】
尚、上記図4の処理例では、欠損リストの作成・更新をダビング停止時に行うように説明したが、ダビング再開時にも欠損リストを更新するように制御してもよく、図4の簡単な修正、例えばステップS408のキャプチャ開始処理で欠損リストの更新を行うことにより実現される。又、停止ボタンなどが押されない間は、ポーズやトリックプレイを終了するとダビングを自動的に再開するよう制御してもよく、この場合にはキャプチャフラグのON/OFFの手順の変更、例えば、図4のステップS413のキャプチャフラグOFFの処理をポーズやトリックプレイ開始などでは行なわず、ポーズやトリックプレイ終了時にはキャプチャフラグONのまま通常再生を開始するようにすればよい。
【0065】
[バイトオフセットの同期例]
ダビングするファイルと再生側の動画ファイルのバイトオフセットを同期させる方法の一例について、以下詳細に説明する。
【0066】
バイトオフセットを同期させることにより、キャプチャが欠損なく完全に終了した時点で、再生側とダビング側の動画ファイルのサイズは一致するようになる。
【0067】
通常、動画再生中に送受信される動画データには再生する動画ファイルに格納されているTSパケットの他に、転送中の動画データの時間情報とそれを表示すべき時刻に大きなずれが表示した場合に時間調節の為に使われる空のTSパケットや、転送回線が機能していることを示す一定間隔で発生するTSパケットなどが多重化されている。これらのデータの種類を示す識別子はTSパケットヘッダに格納されているので、これを参照して必要なTSパケットを抽出して記録している。
【0068】
また、通常、動画再生中に送受信される動画データにはファイル上のバイトオフセットを示す情報はなく、受信されたデータから抽出した動画データのTSパケットをそのまま追記記録したのでは、たとえばトリックプレイなどの操作を行った時点で、再生側と記録側でバイトオフセットがずれてしまい、同期が取れなくなってしまう。
【0069】
そこで、動画再生部は、送出する動画データのファイルを記録する為のファイル名と、ファイル中のバイトオフセット情報を格納したTSパケットを一定の時間間隔で定期的に挿入し、またプレイリスト上の各要素の境界点で発生する非連続点でも挿入し送出する。これを、受信側で参照することで記録側のファイルは再生側とバイトオフセットを同期させることができる。
【0070】
本実施形態ではMPEG2規格に準じた例を示したが、独自に拡張した形式で同期情報を転送してもよい。DV形式のデータにおいては、たとえば、動画データ中にはタイムコードが格納されているので、タイムコードとバイトオフセットの対応関係を示した情報を転送すればよい。転送方法に関しては動画データに挿入、多重化する方法や、動画データとは別のチャンネルでファイル転送などによって転送すればよい。
【0071】
[欠損リスト作成処理の動作手順例:図5]
次に、図4のステップS412の欠損リスト作成処理について詳細に説明する。図5は欠損リスト作成処理を示したフローチャートである。
【0072】
はじめに、図5の欠損リスト作成処理の概要を説明すると、欠損リスト作成処理とは、再生側のビデオカメラ105に装着されたソースメディア(第1記憶媒体)から動画蓄積装置100のハードディスク104(第2記憶媒体)へ動画データをダビング中に、再生側のビデオカメラ105を早回ししたり、早戻ししたり、再生を停止したりするなどの正常なダビングが出来ない各種操作が行なわれた場合に、それらの操作中は、ハードディスク104への動画データのダビングを中断し、さらにダビングを中断した部分(未ダビング部分)が分かるようにダビング情報をハードディスク104へ記憶すると共に、処理負荷が低い状態、例えば停止やポーズなどの場合は、未ダビング部分をハードディスク104へ記憶されたダビング情報に基づいてダビングする処理である。
【0073】
以下、図5のフローチャートに基づいて、欠損リスト作成処理を詳細に説明する。
【0074】
まず、欠損リスト作成処理が開始すると、ステップS501に進み、キャプチャ開始時にソースメディアから取得したプレイリストファイル(図7参照)と、ソースメディア情報、すなわち、トリック処理が行われた場合にハードディスク104に蓄積されたキャプチャ済み区間のリスト(図9や図12参照)との内容を比較する。
【0075】
次に、ステップS502に進み、作成されたキャプチャ済み区間のリストとソースメディアから取得した動画ファイル一覧とから欠損リスト(図10や図13参照)を作成し、RAM103またはハードディスク104に記憶する。
【0076】
次に、ステップS503に進み、プレイリストファイルとキャプチャ済み区間のリストと欠損リストとから新プレイリストファイルを作成し、RAM103またはハードディスク104に新プレイリストファイルを記憶する。新プレイリストファイルの各要素は、キャプチャ済みと欠損部分の境界で分割され、キャプチャ済みか否かが判別できるような属性を持たせて作成され、保存される。
【0077】
次に、ステップS504に進み、欠損リストを用いた再キャプチャ処理が可能かどうか(処理負荷が低い状態か否か)を調べ、再キャプチャ処理が可能でない場合にはリターンし、再キャプチャ処理が可能な場合には、ステップS505に進み、図6を用いて詳細を説明する再キャプチャ処理をしてからリターンする。
[欠損リスト作成処理の具体例:図8〜図14]
図8〜図14は、ビデオカメラ105と動画蓄積装置100を用いて、ビデオカメラ105のソースメディア(第1記録媒体)から動画蓄積装置100のハードディスク104(第2記録媒体)にダビングしている際に、トリック処理を行ったために正常なダビングができないで未ダビング部が生じる場合の一例を具体的に説明するための図である。なおトリック処理は図8に限ることはなく、他の場合であっても良い。
【0078】
図8は、トリック処理の一例として、通常再生でダビングしている際に早送りすなわち高速再生(トリックモードの処理)を行い、次に、通常再生に戻してダビングし、さらに、再生停止(トリックモードの処理)を行った場合を例にとり、ダビングできた部分、ダビングできなかった未ダビング部分(欠損部分)のデータを具体的に示している。
【0079】
シーケンス2の再生途中P2−1〜P2−2の区間において、高速再生(早送り:トリックモード処理)を行い、シーケンス3の再生中P3−1のタイミングで再生を停止(トリックモードの処理)したことを示す。しかしながら、動画データの復号化には遅延が発生し、また動画を安定的に再生する為に、通常、転送するデータは表示する時間より先行している為、実際の操作とデータ上では若干の差が発生する。そこでP2−1、P2−2、及びP3−1に対応する境界をそれぞれP2−1’、P2−2’、及びP3−1’としている。
【0080】
なおトリックモードか否かを判定する方法としては、転送される動画データには、TSパケットのヘッダ情報内にトリックモードか否かが分かるフラグがあり、これを参照することで対応する境界を判断することができる。なおトリックモードの判定はこれに限ったものではなく、例えば、動画データ中に独自のデータ形式によってトリックモードが判別できる情報を挿入してもよい。また、リモコン109や操作パネル107などの入力部からのトリックプレイ操作に基づいて判定してもよい。
【0081】
(図8の(P2−1)時点で早送りを開始した場合:図9〜図11)
図9は、図8の(P2−1)時点で早送りを行った場合のキャプチャ(ダビング)済み区間のリストの内容を示す図であり、図10は、その時点で作成される欠損リスト(未ダビング部分)を示す図であり、図11は、その時点で更新されるプレイリストの内容を示した図である。
【0082】
まず、早送りによって作成されたキャプチャ済み区間のリスト(図9)をプレイリストファイル(図7)と比較して(S501)、欠損リスト(図10)を作成して記録する(S502)。早送りによって作成されたキャプチャ済み区間のリスト(図9)、欠損リスト(図10)、プレイリストファイル(図7)から新プレイリストファイル(図11)を作成して記録する(S503)。
【0083】
(図8の(P2−2)時点で早送りを停止してダビングを再開した場合)
図示しないが、図9の3行目に図12の3行目の開始時間のみが記入されて付加され、キャプチャ済み区間のリストが更新される(S408)。
【0084】
(図8の(P3−1)時点で停止した場合:図12〜図14)
P1〜P2−1’、及びP2−2’〜P3−1’の区間における動画のキャプチャが完了すると、キャプチャ完了した区間とソースメディア上の動画ファイルを対応づけたキャプチャ済み区間のリストを作成できる。これが図12である。キャプチャ中にこのリストを参照することにより、重複してキャプチャすることを防ぐことができる。キャプチャ済み区間のリスト(図12)と図7に示したソースメディア上の情報から欠損リストが作成できる。これが図13である。なお、図12のキャプチャ済み区間のリスト、および図13の欠損リストにおいて、開始、長さの項目に式等が用いられているが、実際はこの数式と等価な値が時:分:秒:フレーム番号の形式で格納される。
【0085】
まず、再生停止によって作成されるキャプチャ済み区間のリスト(図12)をプレイリストファイル(図7)と比較する(S501)。次に、キャプチャ済み区間のリスト(図12)とプレイリストファイル(図7)から欠損リスト(図13)を更新する(S502)。再生停止によって作成されたキャプチャ済み区間のリスト(図12)、欠損リスト(図13)、プレイリストファイル(図7)から新プレイリストファイル(図14)を更新する(S503)。
【0086】
尚、上記欠損リストの内容は独自フォーマットの形式のバイナリ形式でもよいし、可読性のあるテキスト形式でもよい。テキスト形式の場合は、MPEG7に準拠させてもよい。また欠損情報はキャプチャ済み情報とソースメディア上の情報から生成できるのでキャプチャ済み情報を記憶してもよい。
【0087】
(MPEG7インスタンスの例:図15)
図15はMPEG7に準拠させた場合のMPEG7インスタンスの例である。これにはキャプチャ済みの動画について、複製されたものであるという情報と、キャプチャされたファイルのコピー元となったオリジナルの動画ファイルと、その中のどの区間であるかを特定可能な情報などを格納している。このような情報をキャプチャ済みの動画ごとに付与して、複製情報を記憶する。
【0088】
[欠損リストによるダビング時の再キャプチャ処理:図6,図18〜図20]次に図6及び図18〜図20を用いて、欠損リストの再キャプチャ処理スレッドについて説明する。以下の説明では、図13の欠損リストを一例として説明するが、プレイリストを用いても同様の処理ができる。
【0089】
この欠損リストの再キャプチャ処理は、ビデオカメラ105のソースメディア(第1記憶媒体)からハードディスク104(第2記憶媒体)にダビングする際に、トリックプレイ処理の操作によってダビングされていない部分があると、システムおよびビデオカメラ105が停止、ポーズ状態のようなアイドリング中で、IEEE1394インターフェース上の使用帯域にも余裕があるときに処理が実行されるものである。さらに、ビデオカメラ105においてソースメディアの装着が行われた場合、ソースメディア交換コマンドを106に送信し、CPU101がこのコマンドの受信を確認したときに本スレッドを起動してもよい。そしてシステム、および、ビデオカメラが停止、ポーズ状態でなくなったときや、IEEE1394インターフェース上の使用帯域が他の処理の為に使われる場合は速やかに処理を中断し、他の処理を優先して行う。
【0090】
まず、ステップS601に進み、再生側のすべてのファイルから、第1の付属情報をダビング(複製)する。第1の付属情報とは、付属情報が独立したファイルであるもの、または、動画ファイルの先頭、末尾に付加された付属情報である。
【0091】
次に、ステップS602に進み、第2の付属情報をダビング(複製)する。第2の付属情報とは、動画ファイルを構成するTSパケットのうち、付属情報としての識別子をもつTSパケットで第1の付属情報以外の付属情報である。
【0092】
次にステップS603に進み、動画データをダビング(複製)する。これは動画ファイルを構成するTSパケットのうち付属情報以外の識別子をもつTSパケットである。これで、一連の作業を終了する。
【0093】
尚、ステップS603の動画データの再ダビングは、転送時間などの制限により実施しなくてもよい。しかしながら、空き時間を有効に利用するために、ステップS603を実行するのが望ましい。
【0094】
本実施形態では、第2付属情報は転送元と転送先が同一のファイルオフセット上に配置されるように転送して、ハードディスク104に蓄積する。 従って、ステップS602を終えた時点ではサイズは転送元の動画ファイルとほぼ同じで、動画データの抜けた虫食い状のファイルが出来上がる。そして、ステップS603が完了すると、転送元と転送先は同じファイルが出来上がっている。しかしながら、これに限定されるものではない。
【0095】
尚、ファイルの論理的なアドレスに物理的な記憶領域を割り当てる方法は、ファイルシステムに依存するものであり、本実施形態では説明を省く。
(第1付属情報のダビング処理の手順例:図18)
次に、図6のステップS601における第1の付属情報を取得する処理について、図18を用いて詳細に説明する。図18は、再生側(ビデオカメラ105のソースメディア(第1記憶媒体))にある個々のファイルについての処理を示したものである。
【0096】
処理が開始すると、ステップS701に進み、ソースメディアから読み出したファイルが付属情報ファイルか否かを判断する。付属情報ファイルであるか否かは、ファイル名の拡張子が所定の文字列かどうかで判断できる。ステップS701において付属情報ファイルであった場合には、ステップS702に進み、同一のファイルがハードディスク104(記録側)にすでにダビングされて存在しているか否かをチェックする。ステップS702において、同一のファイルがダビングされている場合には何もしないでリターンし、同一のファイルがダビングされていない場合には、ステップS703で付属情報ファイルをコピーしてからリターンする。
【0097】
一方、ステップS701でソースメディアから読み出したファイルが付属情報ファイルでなかった場合には、ステップS704に進み、このファイルが動画ファイルであるかどうかチェックする。動画ファイルであるか否かは付属情報ファイルと同様に、ファイル名の拡張子によって判断できる。
【0098】
ステップS704において、動画ファイルでない場合には何もしないでリターンし、動画ファイルであった場合には、ステップS705に進み、先頭の付属情報がハードディスク104にダビングされている(取得済み)か否かを判断する。これは実際にハードディスク上の動画ファイルの先頭部分にある付属情報の存在を確認する。ステップS705において、先頭の付属情報を取得済みの場合には何もしないでステップS707に進み、先頭の付属情報を取得済みでなければ、ステップS706で先頭の付属情報を取得してからステップS707に進む。次に、ステップS707では、末尾の付属情報がハードディスク104に取得済みか否かを判断する。これは実際にハードディスク上の動画ファイルの末尾部分にある付属情報の存在を確認する。ステップS707において、末尾の付属情報を取得済みの場合には何もしないでステップS709に進み、末尾の付属情報を取得済みでなければ、ステップS708で末尾の付属情報を取得してから、リターンする。
【0099】
(第2付属情報のダビング処理の手順例:図19)
次に、図6のステップS602における第2の付属情報を取得する処理について、図19を用いて詳細に説明する。
【0100】
処理が開始するとステップS801に進み、欠損リストの先頭の要素へポインタを設定する。次にステップS802に進み、再生側、記録側両方の動画ファイル上の欠損開始点へシークする。次にステップS803に進み、シークが成功したか確認し、シークが失敗した場合は、その欠損情報の区間については無視してステップS807に進み、次の欠損情報を処理する。シークが失敗した場合は、ソースメディアが装着されていないか、または、異なるメディアが装着されているか、削除操作などで、ソースメディア中に所望のファイルが存在しないことを意味する。
【0101】
一方、ステップS803でシークが成功した場合は、ステップS804に進み、ソースメディアより付属情報(第2付属情報)を抽出する。付属情報であるか否かはTSパケットのヘッダ情報を参照することで判断できる。次に、ステップS805に進み、付属情報のTSパケットをハードディスク104に転送(ダビング)する。転送するデータは再生側と記録側が同一のファイルオフセット上に配置される様に転送してハードディスク104に蓄積する。次に、ステップS806に進み、転送されるデータ中のパケットのヘッダに格納されたクロック情報を参照して、欠損終了時刻であるか否かを判断し、欠損終了時刻の場合には、ステップS807に進み、終了時刻に達していない場合には、ステップS804に戻り、上記説明したブロック転送を繰り返す。
【0102】
次に、ステップS807に進み、次の欠損情報へポインタを進めてから、次にステップS808に進み、欠損リストをすべて処理したか判断し、欠損情報を全て処理した場合にはリターンする。
【0103】
一方、ステップS808において、欠損情報が残っている場合はステップS802に戻り、上記説明したステップS802〜ステップS807の処理を継続して行う。
(動画データのダビング処理の手順例:図20)
次に図6のステップS603における動画データを取得する処理について、図20を用いて詳細に説明する。
【0104】
以下の説明では、図13の欠損リストを一例として説明するが、プレイリストを用いても同様の処理ができる。この欠損リストによる再キャプチャ処理は、ビデオカメラ105のソースメディア(第1記憶媒体)からハードディスク104(第2記憶媒体)にダビングする際に、トリックプレイ処理の操作によってダビングされていない部分がある場合に、欠損リスト(図13)に基づいて未ダビング部分をソースメディアからハードディスク104に再ダビングするものである。
【0105】
処理が開始するとステップS901に進み、欠損リストの先頭の要素へポインタを設定する(図13の場合は、ファイル002.mp2の{(P−1’)−1})。次にステップS902に進み、ソースメディア(再生側)、ハードディスク104(ダビング側)両方の動画ファイル上の欠損開始点へシークする。次にステップS903に進み、シークが成功したか否かを確認する。シークが失敗した場合は、その欠損情報の区間については無視してステップS908に進み、次の欠損情報を処理する。シークが失敗した場合は、ソースメディアが装着されていないか、または、異なるメディアが装着されているか、削除操作などで、ソースメディア中に所望のファイルが存在しないことを意味する。
【0106】
一方、ステップS903において、シークが成功した場合はステップS904に進み、ソースメディア中の動画ファイルのデータをブロック転送し、ハードディスク104にダビング(蓄積)する。
【0107】
次に、ステップS905に進み、転送されるデータ中のパケットのヘッダに格納されたクロック情報を参照して、欠損終了時刻であるか否かを判断し、欠損終了時刻に達していない場合はステップS904に戻りブロック転送を繰り返し、欠損終了時刻に達した場合、すなわち、1つの欠損情報について転送が終了したら、ステップS906に進み、欠損情報リストから転送済みの欠損情報を削除する。(図16に欠損リストを削除の一例を示す)。
【0108】
次にステップS907に進み、プレイリストを更新する。すなわち、すべてのプレイリストから転送済みの動画データについてキャプチャ済みフラグを操作し、プレイリスト中の隣り合うシーケンス番号の動画内容がキャプチャ済みで連続している場合は1つに統合する(図17にプレイリストファイルの更新の一例を示す)。
【0109】
次に、ステップS908に進み、次の欠損情報へポインタを進める。次に、ステップS909に進み、欠損リストをすべて処理したか判断し、まだ欠損情報が残っている場合はステップS902に戻り、上記説明したステップS902〜ステップS908までの処理を繰り返し行い、ステップS608において、全ての欠損リストを処理した場合にはリターンする。
【0110】
上記実施形態においては、プログラムをROMに保持する場合について説明したが、これに限定されるものではなく、任意の記録媒体を用いて実現してもよい。また、同様の動作をする回路で実現してもよい。
【0111】
なお、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
【0112】
プログラムコードを供給する為の記録媒体としては、たとえば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW,DVD,磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
【0113】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0114】
更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0115】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0116】
また、上述した実施形態では、動画蓄積装置自体について説明したが、複数の装置をインターネットなどのネットワークへ接続する場合に適用可能であることは言うまでもない。この時、通信コストの高い、動画データなどを光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW,DVD,磁気テープ、不揮発性のメモリカード、ROMなどのメディアを使ってオフラインで供給しておき、供給済みのデータはネットワークを経由しないで利用できるようにしてもよい。
【0117】
以上説明したように、本発明の動画蓄積装置100は、付属情報を得るためにソースメディアのダビングされていない動画データより第1付属情報(付属情報ファイルと動画ファイルの先頭・末尾の付属情報)と第2付属情報(動画ファイルの先頭・末尾以外の付属情報)とを自動で抽出し、そのデータを付属情報として転送するため、たとえハードディスク104にダビングされていない動画データがあっても、全ての付属情報のみをソースメディアから完全に複製を行うことができる。
【0118】
【発明の効果】
以上説明したように、本発明によれば、例えば、ソースメディアから動画データに含まれる付属情報を効率よくダビングできる動画蓄積方法および動画蓄積装置を提供できる。また、ユーザがソースメディアから動画データに含まれる付属情報をダビングする際には、ユーザを機器操作にかかる煩わしさから開放して付属情報を容易に利用できる動画蓄積方法および動画蓄積装置を提供できる。
【図面の簡単な説明】
【図1】本実施形態の動画蓄積装置のハードウェア構成の一例を示すブロック図である。
【図2】本実施形態の動画蓄積装置に用いられるリモコンの概観の一例を示す図である。
【図3】本実施形態の動画蓄積装置の記憶媒体に記憶される動画データの一例を示す図である。
【図4】本実施形態の動画蓄積装置のROMに記憶された制御プログラムによる処理手順を示すフローチャートである。
【図5】図4の制御プログラムにおけるS412の欠損リスト作成処理の詳細を示すフローチャートである。
【図6】図5の欠損リスト作成処理におけるS505の欠損リストの再キャプチャ処理スレッドの処理の詳細を示すフローチャートである。
【図7】本実施形態の動画蓄積装置に接続される再生元であるビデオカメラのソースメディア(第1の記憶媒体)に蓄積された動画データの内容の一例を示す図である。
【図8】本実施形態の動画蓄積装置におけるダビング中の操作の一例(ダビング→早送り→ダビング→停止)とその際に動画蓄積装置にダビングされるデータの範囲を説明する図である。
【図9】図8の(P2−1)時点での早送り開始におけるキャプチャ済み区間のリストの内容を説明する図である。
【図10】図8の(P2−1)時点での早送り開始において得られる欠損リストの一例を示す図である。
【図11】図8の(P2−1)時点での早送り開始において得られるプレイリストの内容を示した図である。
【図12】図8の(P3−1)時点での再生停止におけるキャプチャ済み区間のリストの内容を説明する図である。
【図13】図8の(P3−1)時点での再生停止において得られる欠損リスト(未ダビング部分)の一例を示す図である。
【図14】図8の(P3−1)時点での再生停止において得られる新プレイリストの内容を示した図である。
【図15】本実施形態の動画蓄積装置において、ダビング済みの情報をMPEG7準拠の形式で記憶する場合のインスタンス例を示した図である。
【図16】本実施形態の動画蓄積装置における欠損リストの更新前と更新後の一例を説明する図である。
【図17】本実施形態の動画蓄積装置におけるプレイリストの更新前と更新後の一例を説明する図である。
【図18】図6の欠損リストの再キャプチャ処理におけるS601の第1の付属情報の複製処理の詳細を示すフローチャートである。
【図19】図6の欠損リストの再キャプチャ処理におけるS602の第2の付属情報の複製処理の詳細を示すフローチャートである。
【図20】図6の欠損リストの再キャプチャ処理におけるS603の動画データの複製処理の詳細を示すフローチャートである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image storage device for reproducing video and audio transferred from another storage medium, a moving image storage method, a control program for the moving image storage device, and a computer-readable storage medium storing the control program.
[0002]
[Prior art]
In recent years, with the increase in capacity and speed of hard disks, and advances in computer technology, it has become possible to store and play moving images on hard disks. For example, a hard disk recorder capable of recording (dubbing) video shot by a home video camera or broadcast video on a hard disk and reproducing the dubbed video has become feasible.
[0003]
By the way, in the past, in general homes, when shooting with a video camera in order to memorize trips, events, and the like, in many cases, it is often played back only on the day of shooting and rarely seen. The reason for this is that replacement of photographed media is troublesome, or deterioration of the storage medium due to repeated reproduction is a concern. However, if there is a moving image storage device such as the above hard disk recorder, for example, if dubbing to the hard disk recorder while playing the video taken by the video camera on the same day, it is not necessary to replace the media at a later date, It is possible to reproduce a moving image of a video freely taken from a desired place without worrying about deterioration of the storage medium due to repeated reproduction, and the above problem can be solved.
[0004]
However, in a conventional hard disk recorder, for example, while dubbing a video shot by a video camera to data on a hard disk, it is necessary to continuously play back the video shot by the video camera. Also, if you stop playback midway, replace the storage medium attached to the video camera, or perform trick play such as fast-turning, the dubbing of the video will end at that point, or the stopped video The problem was that the video itself that had been quickly turned was dubbed.
[0005]
On the other hand, attached information is added to a moving image, and the attached information is information such as characters and images associated with video and audio. The basic types and description methods are being standardized by MPEG7. Have been. As a method of using such additional information, for example, a method of performing a search using characters using the additional information of a moving image file in order to facilitate a search for a moving image file can be considered. As another use method, a method of quickly searching for a desired scene in a moving image by using the attached information of the moving image file and displaying the desired scene in a list of reduced still images to grasp the outline of the moving image is also considered. Can be
[0006]
Regarding the dubbing of the attached information, for example, in Japanese Patent Application Laid-Open No. Hei 8-116510, subcode data, AUX data of video and audio, and information on the cassette in the case of a cassette with memory are treated as attached information, and are not conventionally subjected to dubbing. A method of completely copying attached information together with a moving image is disclosed.
[0007]
[Problems to be solved by the invention]
However, in a conventional hard disk recorder, when a predetermined function is executed by using the above-described attached information on the medium, for example, a source medium newly shot and stored by a home video camera or the like is used. After completely dubbing the moving image data on the hard disk recorder, the auxiliary information included in the dubbed moving image data was extracted and used. Therefore, in order to obtain additional information, it is necessary to completely dub the video data from the source media to the hard disk recorder. Naturally, complete dubbing of the additional information requires the same time as dubbing the video data. Needed time.
[0008]
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the related art as a starting point, and has as its object to provide a function for searching for a moving image, etc., with a relatively short dubbing time and a troublesome operation of a device by a user. It is an object of the present invention to provide a moving image storage method and a moving image storage device that can be used without any method.
[0009]
[Means for Solving the Problems]
A moving image storage method according to an embodiment of the present invention for achieving the above object has the following configuration. That is, when the moving image data stored in the first storage medium is dubbed to the second storage medium, the additional information included in the non-dubbed portion is extracted from the moving image data stored in the first storage medium, It is characterized in that dubbing is performed on the second storage medium.
[0010]
Here, the additional information includes first additional information and second additional information, and the first additional information is included in an additional information file independent of the moving image file and at a beginning or end of the moving image file. The second attached information is made up of attached information other than the head and tail of the moving image data. The additional information included at the beginning and end of the moving image data is additional information relating to the entire moving image file, and the additional information included at positions other than the beginning and end of the moving image data includes the respective images of the moving image file. This is additional information about the frame. Further, the attached information relating to the entire moving image file includes a photographing state of the camera such as a time required for reproducing the moving image, a photographing date and time, an AE mode at the time of photographing. Further, the attached information on each frame includes a photographing state of the camera that changes in real time, such as an aperture, a shutter speed, and a focus at the time of photographing. Further, the first attached information includes a play list and a lost list. When dubbing the additional information, the moving image file recorded on the first recording medium is dubbed in synchronization with the file offset of the additional information to be dubbed. When dubbing the additional information, the additional information to be dubbed is expressed as a Media Instance tag in MPEG7, and dubbed as the additional information at the end of the moving image file included in the moving image data. Further, the first and / or second storage medium is a storage medium that can be randomly accessed. The method further includes a step of stopping the transfer when it is determined that a normal transfer cannot be performed during the transfer, and a step of holding information indicating an untransferred portion generated by the stop of the transfer.
[0011]
A moving image storage device according to an embodiment of the present invention for achieving the above object has the following configuration. That is, moving image data dubbing means for dubbing moving image data stored in the first storage medium to the second storage medium, and additional information included in a portion not to be dubbed is extracted from the moving image data stored in the first storage medium. And additional information dubbing means for dubbing to the second storage medium.
[0012]
A control program according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a control program for controlling the moving image storage device, the moving image data dubbing module for dubbing the moving image data stored in the first storage medium to the second storage medium, and the additional information included in the non-dubbed portion. And an additional information dubbing module for extracting from moving image data stored in one storage medium and dubbing the moving image data to a second storage medium.
[0013]
A computer-readable storage medium according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a computer-readable storage medium storing a control program for controlling a moving image storage device, wherein the control program includes a moving image data dubbing module for dubbing moving image data stored in a first storage medium to a second storage medium. And an additional information dubbing module for extracting additional information included in a portion that is not dubbed from the moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
Hereinafter, a moving
[0015]
[Hardware configuration of moving image storage device: FIG. 1]
FIG. 1 shows a hardware configuration of a moving
[0016]
[0017]
[0018]
[0019]
An
[0020]
[0021]
[0022]
[Remote control: Fig. 2]
FIG. 2 shows an overview of the
[0023]
[0024]
Reference numeral 205 denotes video operation buttons for instructing fast rewind, playback, fast forward, recording, pause, and stop, respectively. The video operation button can operate the
[0025]
To execute a function using the
[0026]
The input section of the function command may be constituted by an input section such as a keyboard or a mouse of a personal computer in addition to the buttons of the
[0027]
[Configuration example of moving image data: FIG. 3]
Next, FIG. 3 shows an example of moving image data stored in a storage medium.
[0028]
The moving image data mainly includes two types of files, a moving image file 301 (FIG. 3A) and a playlist file 302 (FIG. 3B). In the present embodiment, the moving image file 301 is stored as a file in which video (Video), audio (Audio), and attached information are multiplexed in the MPEG-2 transport stream format. The format of the moving image file 301 is not limited to MPEG2, but may be DV or another format.
[0029]
(Video file: Fig. 3 (a))
In the case of the transport stream format, the moving image file is composed of continuous fixed-length TS packets, and the header of each TS packet contains identification information indicating the type of main data and clock information. (Video), audio (Audio), attached information, and other unique data added by the moving image reproducing means can be identified and separated.
[0030]
The moving image file 301 is created each time recording is started in the
[0031]
The medium is identified by whether or not such a file name exists on the medium. It is more reliable to generate the identification information from the identification number of the device and the time information. For video (VIDEO) and audio (AUDIO), time stamp information is stored for synchronization.
[0032]
(Attached information: Table 1)
Next, the attached information will be described with reference to Table 1.
[0033]
[Table 1]
[0034]
Among the additional information, additional information (first additional information) relating to the entire moving image file is arranged at the beginning and end. The attached information at the top can be scanned from the first TS packet of the moving image file toward the end of the file in TS packet units to acquire data size information or to specify a range by a delimiter indicating the end of the attached information.
[0035]
The attached information at the end can be searched in the direction of the file beginning from the end TS packet of the moving image file in units of TS packets to acquire data size information, or a range can be specified by a delimiter indicating the beginning of the attached information.
[0036]
Information (second attached information) on an image frame or an arbitrary section is multiplexed so as to be arranged near corresponding image data or audio data.
[0037]
As a matter of course, some or all of the attached information may be arranged as a file independent of the moving image file.
[0038]
The attached information (first attached information) relating to the entire moving image file stores, for example, the shooting time of the moving image, the shooting date and time, the AE mode at the time of shooting, and the shooting state of the camera. When the supplementary information is corrected or updated, the difference information is added to the end of the moving image file.
[0039]
The additional information (second additional information) relating to each frame stores operation information such as zooming, a shooting state of the camera that changes in real time such as an aperture at the time of shooting, a shutter speed, and focus. In addition, there is a playlist and a missing information list as additional information (first additional information) for a plurality of moving image files. This information is used as a clue for video editing, analysis, and video search.
[0040]
Table 2 shows description contents of operation information such as zoom.
[0041]
[Table 2]
[0042]
The encoding format of the attached information may be binary data in which the meaning of each bit is defined, or text data. In the case of text data, it may be expressed by a unique type definition in the XML format, or may be expressed using a type definition conforming to the MPEG7 standard.
[0043]
(Playlist file: FIG. 3 (b))
The playlist file 302 is a list that designates an arbitrary range or all of one or a plurality of moving image files, and the moving image reproducing process can seamlessly reproduce the moving images according to the list.
[0044]
In the present embodiment, the content of the data stored in the playlist file 302 is a list including a moving image file name, a start time, and an end time. The time is stored in the format of hour: minute: second: frame number. Note that as long as the information can identify a moving image section, clock information, a file offset, and physical and logical position information on a storage medium may be used instead of the start time and the end time.
[0045]
[Example of main operation procedure of moving image storage processing: FIG. 4]
FIG. 4 shows a flow in which the
[0046]
In the following description, moving image data stored on a source medium (first storage medium) mounted on the
[0047]
Hereinafter, the flow of executing the control program will be described in detail with reference to FIG.
[0048]
When the power is turned on, the process proceeds to step S401, and system initialization such as initialization of various interfaces is performed. Next, the process proceeds to step S402 to check whether or not a command has been input from the
[0049]
(Capture start command processing)
First, in the identification of the command in step S403, when the input command is a capture start command for starting dubbing from the source medium (first storage medium) to the second storage medium (for example, the recording in FIG. 2 is pressed). If it is, the dubbing start preparation process is performed in steps S404 to S406.
[0050]
That is, first, the process proceeds to step S404, and a flag indicating that the camera is in the capture mode is turned ON. By referring to this flag, the capture mode processing is performed in the subsequent processing. Next, proceeding to step S405, the target device mode is set to the reproduction side, that is, the video camera. Subsequent video operations from the
[0051]
Next, the process proceeds to step S406, where media information is acquired from a source medium (first storage medium) attached to the
[0052]
Next, the process returns to step S402, and waits until the next command is input.
[0053]
(List of video data of source media: Fig. 7)
FIG. 7 is an example of information acquired from the source medium (first storage medium) and stored in the
[0054]
(Normal playback command processing)
On the other hand, if it is determined in step S403 that the input command is the normal reproduction start command (in the case where the reproduction in FIG. 2 is pressed), the flow advances to step S407 to check the capture mode.
[0055]
Next, in step S407, if the capture mode is not ON, the process proceeds to step S409 without doing anything. If the capture mode is ON, the capture start process is performed in step S408, and the process proceeds to step S409. After proceeding to start the reproduction process, the process returns to step S402 and waits until the next command is input.
[0056]
The capture start process in step S408 is as follows. First, in the capture start processing, a moving image file is created on the receiving hard disk 104 (second storage medium), and the moving image data received from the IEEE 1394 interface is made dubbable on the
[0057]
The writing of the captured data to the moving image file is performed in units of logical data. This will be described in detail later, but is temporarily stored in the
[0058]
Therefore, at the time of switching to a new moving image file (for example, P2 or P3 in FIG. 8), the length of the last file in the captured list is entered, and a new file name is added to the captured list along with the start time (0). Is done.
[0059]
(Processing of trick play start command, etc.)
On the other hand, the command input in the command evaluation in step S403 is a command that does not allow normal dubbing, such as a trick play start command such as fast reverse, a stop command, a pause command, a source media eject command, and a power OFF command. In this case, the process proceeds to step S410.
[0060]
In step S410, the capture mode is checked. If the capture mode is not ON, the process proceeds to step S414 without doing anything. If the capture mode is ON, the processes in steps S411 to S413 are performed, and then the process proceeds to step S414. Proceed to. In step S414, after each command process is started, the process returns to step S402, and waits until the next command is input.
[0061]
The processing in steps S411 to S413 is as follows.
[0062]
That is, if the capture mode is ON, the capture process ends in step S411, and the moving image file is closed. In the capture ending process, the incomplete block of moving image data before dubbing to the hard disk remaining in the
[0063]
(Processing of other commands)
On the other hand, if the command input in the command evaluation in step S403 is another command, the process proceeds to step S415 without performing any processing, returns to step S402 after processing the input command, and returns to step S402. Wait for input.
[0064]
In the processing example of FIG. 4 described above, the loss list is created and updated when dubbing is stopped. However, control may be performed so that the loss list is updated even when dubbing is resumed. For example, this is realized by updating the loss list in the capture start processing in step S408. As long as the stop button or the like is not pressed, dubbing may be automatically restarted when the pause or trick play ends. In this case, the capture flag ON / OFF procedure may be changed. The process of turning off the capture flag in step S413 of
[0065]
[Example of byte offset synchronization]
An example of a method for synchronizing the byte offset between the file to be dubbed and the moving image file on the playback side will be described in detail below.
[0066]
By synchronizing the byte offsets, the size of the moving image file on the reproduction side and the size of the moving image file on the dubbing side become the same when the capture is completely completed without any loss.
[0067]
Normally, when the moving image data transmitted / received during the moving image reproduction shows a large difference between the time information of the moving image data being transferred and the time at which it should be displayed, in addition to the TS packet stored in the moving image file to be reproduced. An empty TS packet used for time adjustment, a TS packet generated at a constant interval indicating that the transfer line is functioning, and the like are multiplexed. Since identifiers indicating the types of these data are stored in the TS packet header, necessary TS packets are extracted and recorded with reference to the identifiers.
[0068]
Also, normally, there is no information indicating the byte offset on the file in the moving image data transmitted and received during the reproduction of the moving image. If the TS packet of the moving image data extracted from the received data is additionally recorded as it is, for example, trick play, etc. When the above operation is performed, the byte offset is shifted between the reproducing side and the recording side, so that synchronization cannot be achieved.
[0069]
Therefore, the moving image reproducing unit periodically inserts a file name for recording the file of the moving image data to be transmitted and a TS packet storing the byte offset information in the file at a fixed time interval. Even non-continuous points generated at the boundary points of each element are inserted and transmitted. By referencing this on the receiving side, the file on the recording side can synchronize the byte offset with the file on the reproducing side.
[0070]
In the present embodiment, an example according to the MPEG2 standard has been described. However, the synchronization information may be transferred in a uniquely extended format. In DV format data, for example, since a time code is stored in moving image data, information indicating the correspondence between the time code and the byte offset may be transferred. The transfer method may be a method of inserting and multiplexing the data in the moving image data, or a method of transferring the file on a channel different from that of the moving image data.
[0071]
[Example of operation procedure of missing list creation processing: FIG. 5]
Next, the loss list creation processing in step S412 in FIG. 4 will be described in detail. FIG. 5 is a flowchart showing the loss list creation processing.
[0072]
First, an outline of the loss list creation processing of FIG. 5 will be described. The loss list creation processing is performed by using a source medium (first storage medium) mounted on the
[0073]
Hereinafter, the loss list creation processing will be described in detail based on the flowchart of FIG.
[0074]
First, when the loss list creation process starts, the process proceeds to step S501, where the playlist file (see FIG. 7) acquired from the source media at the start of capture and the source media information, that is, the
[0075]
Next, the process proceeds to step S502, where a loss list (see FIGS. 10 and 13) is created from the created list of captured sections and the moving image file list acquired from the source medium, and stored in the
[0076]
Next, the process advances to step S503 to create a new playlist file from the playlist file, the list of captured sections, and the missing list, and store the new playlist file in the
[0077]
Next, the process proceeds to step S504 to check whether the recapture process using the missing list is possible (whether the processing load is low). If the recapture process is not possible, the process returns and the recapture process is possible. If not, the process advances to step S505 to perform a recapture process described in detail with reference to FIG. 6, and then returns.
[Specific Example of Loss List Creation Processing: FIGS. 8 to 14]
8 to 14, the
[0078]
FIG. 8 shows an example of a trick process in which fast-forwarding, that is, high-speed playback (trick mode processing) is performed during normal playback dubbing, then normal playback is resumed, dubbing is performed, and playback is stopped (trick mode). In this example, the data of the portion that was dubbed and the data of the undubbed portion (deleted portion) that was not dubbed are specifically shown.
[0079]
High-speed playback (fast-forward: trick mode processing) was performed in the section from P2-1 to P2-2 during playback of
[0080]
As a method of determining whether or not the mode is the trick mode, the transferred moving image data has a flag in the header information of the TS packet that indicates whether or not the mode is the trick mode. By referring to this, the corresponding boundary is determined. can do. The determination of the trick mode is not limited to this. For example, information that can determine the trick mode by a unique data format may be inserted into the moving image data. Alternatively, the determination may be made based on a trick play operation from an input unit such as the
[0081]
(When fast-forwarding is started at (P2-1) in FIG. 8: FIGS. 9 to 11)
FIG. 9 is a diagram showing the contents of a list of captured (dubbed) sections when fast-forwarding is performed at the time (P2-1) in FIG. 8, and FIG. 10 is a diagram showing a lost list (not yet created) created at that time. FIG. 11 is a diagram showing the contents of the playlist updated at that time.
[0082]
First, the list of captured sections (FIG. 9) created by fast-forwarding is compared with the playlist file (FIG. 7) (S501), and a loss list (FIG. 10) is created and recorded (S502). A new playlist file (FIG. 11) is created and recorded from the captured section list (FIG. 9), the missing list (FIG. 10), and the playlist file (FIG. 7) created by the fast forward (S503).
[0083]
(When fast-forwarding is stopped and dubbing is restarted at the point (P2-2) in FIG. 8)
Although not shown, only the start time of the third line of FIG. 12 is entered and added to the third line of FIG. 9, and the list of captured sections is updated (S408).
[0084]
(When stopped at (P3-1) in FIG. 8: FIGS. 12 to 14)
When the capturing of the moving image in the sections P1 to P2-1 ′ and P2-2 ′ to P3-1 ′ is completed, a list of captured sections in which the captured section is associated with the moving image file on the source medium can be created. . This is shown in FIG. By referring to this list during capture, duplicate capture can be prevented. A missing list can be created from the list of captured sections (FIG. 12) and the information on the source media shown in FIG. This is shown in FIG. In the list of captured sections in FIG. 12 and the missing list in FIG. 13, expressions and the like are used for the items of start and length. Actually, values equivalent to the mathematical expressions are hours: minutes: seconds: frames. Stored in number format.
[0085]
First, the list of captured sections (FIG. 12) created by stopping the reproduction is compared with the playlist file (FIG. 7) (S501). Next, the lost list (FIG. 13) is updated from the list of captured sections (FIG. 12) and the playlist file (FIG. 7) (S502). The new playlist file (FIG. 14) is updated from the list of captured sections (FIG. 12), the missing list (FIG. 13), and the playlist file (FIG. 7) created by stopping the reproduction (S503).
[0086]
Note that the contents of the above-mentioned loss list may be in a binary format in a format of a unique format, or may be in a readable text format. In the case of a text format, it may be compliant with MPEG7. Further, since the missing information can be generated from the captured information and the information on the source medium, the captured information may be stored.
[0087]
(Example of MPEG7 instance: Fig. 15)
FIG. 15 shows an example of an MPEG7 instance in the case of conforming to MPEG7. This includes information about the captured video that was copied, the original video file from which the captured file was copied, and information that could identify which section of the video file. Stored. Such information is provided for each captured moving image, and the copy information is stored.
[0088]
[Recapture Process at Dubbing Using Missing List: FIGS. 6, 18 to 20] Next, a thread for recapturing the missing list will be described with reference to FIGS. 6 and 18 to 20. In the following description, the missing list in FIG. 13 will be described as an example, but the same processing can be performed using a playlist.
[0089]
In the recapture process of the lost list, when dubbing from the source medium (first storage medium) of the
[0090]
First, the process proceeds to step S601, where the first additional information is dubbed (copied) from all the files on the reproduction side. The first additional information is one in which the additional information is an independent file, or additional information added to the beginning or end of the moving image file.
[0091]
Next, the process proceeds to step S602, where the second attached information is dubbed (copied). The second attached information is a TS packet having an identifier as attached information among TS packets constituting the moving image file, and is attached information other than the first attached information.
[0092]
Next, the process proceeds to step S603, in which the moving image data is dubbed (copied). This is a TS packet having an identifier other than the attached information among the TS packets constituting the moving image file. This ends a series of operations.
[0093]
Note that the re-dubbing of the moving image data in step S603 does not have to be performed due to restrictions on the transfer time and the like. However, it is desirable to execute step S603 in order to effectively use the idle time.
[0094]
In the present embodiment, the second attached information is transferred such that the transfer source and the transfer destination are arranged at the same file offset, and is stored in the
[0095]
The method of allocating a physical storage area to a logical address of a file depends on the file system, and a description thereof will be omitted in this embodiment.
(Example of procedure for dubbing first attached information: FIG. 18)
Next, the process of acquiring the first attached information in step S601 in FIG. 6 will be described in detail with reference to FIG. FIG. 18 shows processing for individual files on the playback side (source medium (first storage medium) of the video camera 105).
[0096]
When the process starts, the process proceeds to step S701, and it is determined whether the file read from the source medium is an attached information file. Whether or not the file is an attached information file can be determined based on whether or not the extension of the file name is a predetermined character string. If the file is an attached information file in step S701, the process advances to step S702 to check whether the same file has already been dubbed on the hard disk 104 (recording side). In step S702, if the same file has been dubbed, the process returns without doing anything. If the same file has not been dubbed, the process returns after copying the attached information file in step S703.
[0097]
On the other hand, if the file read from the source medium is not an attached information file in step S701, the flow advances to step S704 to check whether this file is a moving image file. Whether or not the file is a moving image file can be determined based on the extension of the file name as in the case of the attached information file.
[0098]
In step S704, if the file is not a moving image file, the process returns without doing anything. If the file is a moving image file, the process proceeds to step S705 to determine whether or not the head attached information has been dubbed on the hard disk 104 (acquired). Judge. This actually confirms the presence of additional information at the beginning of the movie file on the hard disk. If it is determined in step S705 that the head attached information has been acquired, the process proceeds to step S707 without performing any operation. If the head attached information has not been acquired, the head attached information is acquired in step S706, and the process proceeds to step S707. move on. Next, in step S707, it is determined whether or not the attached information at the end has been acquired by the
[0099]
(Example of the procedure for dubbing the second attached information: FIG. 19)
Next, the process of acquiring the second attached information in step S602 in FIG. 6 will be described in detail with reference to FIG.
[0100]
When the process starts, the process advances to step S801 to set a pointer to the first element of the missing list. Next, the process proceeds to step S802 to seek to the loss start point on the moving image file on both the reproducing side and the recording side. Next, the process proceeds to step S803 to check whether the seek has succeeded. If the seek has failed, the section of the missing information is ignored and the process proceeds to step S807 to process the next missing information. If the seek has failed, it means that the source medium is not mounted, a different medium is mounted, or a desired file does not exist in the source medium due to a deletion operation or the like.
[0101]
On the other hand, if the seek is successful in step S803, the process advances to step S804 to extract additional information (second additional information) from the source medium. Whether it is the additional information can be determined by referring to the header information of the TS packet. Next, the process proceeds to step S805, in which the TS packet of the attached information is transferred (dubbed) to the
[0102]
Next, the process proceeds to step S807 to advance the pointer to the next missing information, and then proceeds to step S808 to determine whether all the missing lists have been processed. When all the missing information has been processed, the process returns.
[0103]
On the other hand, if the missing information remains in step S808, the process returns to step S802, and the above-described processing in steps S802 to S807 is continuously performed.
(Example of moving image data dubbing process: FIG. 20)
Next, the process of acquiring moving image data in step S603 in FIG. 6 will be described in detail with reference to FIG.
[0104]
In the following description, the missing list in FIG. 13 will be described as an example, but the same processing can be performed using a playlist. The re-capture processing based on the lost list is performed when dubbing from the source medium (first storage medium) of the
[0105]
When the process starts, the process advances to step S901 to set a pointer to the first element of the loss list (in the case of FIG. 13, {(P-1 ′)-1} of the file 002.mp2). Next, the process proceeds to step S902, in which seek is performed to a loss start point in the moving image file of both the source medium (reproduction side) and the hard disk 104 (dubbing side). Next, the process advances to step S903 to check whether the seek has been successful. If the seek has failed, the section of the missing information is ignored and the process proceeds to step S908 to process the next missing information. If the seek has failed, it means that the source medium is not mounted, a different medium is mounted, or a desired file does not exist in the source medium due to a deletion operation or the like.
[0106]
On the other hand, if the seek is successful in step S903, the process advances to step S904 to block-transfer the data of the moving image file in the source medium and dub (accumulate) it on the
[0107]
Next, the process proceeds to step S905, where it is determined whether or not the loss end time has been reached by referring to the clock information stored in the header of the packet in the transferred data. Returning to S904, block transfer is repeated, and when the loss end time has been reached, that is, when transfer of one piece of loss information has been completed, the process proceeds to step S906, where the transferred loss information is deleted from the loss information list. (FIG. 16 shows an example of deleting the missing list).
[0108]
Next, the process proceeds to step S907, and the play list is updated. That is, the captured flag is operated for the moving image data transferred from all the playlists, and when the moving image contents of adjacent sequence numbers in the playlist are captured and continuous, they are integrated into one (see FIG. 17). An example of updating the playlist file is shown).
[0109]
Next, the process advances to step S908 to advance the pointer to the next missing information. Next, the process proceeds to step S909, where it is determined whether or not all the missing lists have been processed. If there is still missing information, the process returns to step S902, and the above-described processes of steps S902 to S908 are repeated. When all the missing lists have been processed, the process returns.
[0110]
In the above-described embodiment, the case where the program is stored in the ROM has been described. However, the present invention is not limited to this, and may be realized using an arbitrary recording medium. Further, it may be realized by a circuit that performs the same operation.
[0111]
The present invention may be applied to a system including a plurality of devices or to an apparatus including a single device. A recording medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads out the program codes stored in the recording medium. Needless to say, it can also be achieved by executing. In this case, the program code itself read from the recording medium implements the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
[0112]
As a recording medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD, magnetic tape, nonvolatile memory card, ROM, etc. Can be used.
[0113]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS or the like running on the computer performs actual processing based on the instructions of the program code. It goes without saying that a case where some or all of the operations are performed and the functions of the above-described embodiments are realized by the processing is also included.
[0114]
Further, after the program code read from the recording medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the board or the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0115]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0116]
Further, in the above-described embodiment, the moving image storage device itself has been described. However, it is needless to say that the present invention can be applied to a case where a plurality of devices are connected to a network such as the Internet. At this time, moving image data and the like having high communication costs can be transferred off-line using media such as optical disks, magneto-optical disks, CD-ROMs, CD-Rs, CD-RWs, DVDs, magnetic tapes, nonvolatile memory cards, and ROMs. The data may be supplied, and the supplied data may be used without passing through the network.
[0117]
As described above, the moving
[0118]
【The invention's effect】
As described above, according to the present invention, for example, it is possible to provide a moving image storage method and a moving image storage device capable of efficiently dubbing additional information included in moving image data from a source medium. Further, when the user dubs the additional information included in the moving image data from the source media, it is possible to provide a moving image storage method and a moving image storage device that can release the user from troublesome operation of the device and easily use the additional information. .
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a hardware configuration of a moving image storage device according to an embodiment.
FIG. 2 is a diagram illustrating an example of an overview of a remote controller used in the moving image storage device of the embodiment.
FIG. 3 is a diagram illustrating an example of moving image data stored in a storage medium of the moving image storage device of the present embodiment.
FIG. 4 is a flowchart illustrating a processing procedure according to a control program stored in a ROM of the moving image storage device of the present embodiment.
FIG. 5 is a flowchart showing details of a loss list creation process of S412 in the control program of FIG. 4;
FIG. 6 is a flowchart showing details of processing of a lost list recapture processing thread in S505 in the lost list creation processing of FIG. 5;
FIG. 7 is a diagram illustrating an example of the content of moving image data stored in a source medium (first storage medium) of a video camera that is a playback source connected to the moving image storage device of the embodiment.
FIG. 8 is a diagram illustrating an example of an operation during dubbing (dubbing → fast forward → dubbing → stop) in the moving image storage device of the embodiment and a range of data to be dubbed to the moving image storage device at that time.
FIG. 9 is a diagram illustrating the contents of a list of captured sections at the start of fast-forwarding at (P2-1) in FIG. 8;
FIG. 10 is a diagram showing an example of a loss list obtained at the start of fast-forwarding at (P2-1) in FIG.
FIG. 11 is a diagram showing the contents of a playlist obtained at the start of fast-forwarding at (P2-1) in FIG.
FIG. 12 is a diagram for explaining the contents of a list of captured sections at the time of stopping reproduction at (P3-1) in FIG. 8;
FIG. 13 is a diagram showing an example of a loss list (undubbed portion) obtained when reproduction is stopped at the point (P3-1) in FIG.
FIG. 14 is a diagram showing the contents of a new playlist obtained when reproduction is stopped at the point (P3-1) in FIG.
FIG. 15 is a diagram showing an example of an instance in the case where dubbed information is stored in a format conforming to MPEG7 in the moving image storage device of the present embodiment.
FIG. 16 is a diagram illustrating an example before and after updating of a loss list in the moving image storage device of the present embodiment.
FIG. 17 is a diagram illustrating an example of a playlist before and after updating in the moving image storage device of the embodiment.
FIG. 18 is a flowchart illustrating details of a process of copying the first attached information in S601 in the process of recapturing the lost list in FIG. 6;
FIG. 19 is a flowchart illustrating details of a process of copying the second attached information in S602 in the process of recapturing the lost list in FIG. 6;
20 is a flowchart showing details of the moving image data copying process in S603 in the lost list recapture process of FIG. 6;
Claims (22)
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングすることを特徴とする動画蓄積方法。When dubbing the moving image data stored in the first storage medium to the second storage medium,
A moving image storage method, comprising: extracting auxiliary information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the extracted information to a second storage medium.
前記転送停止により発生する未転送部分を示す情報を保持する工程とを更に有することを特徴とする請求項1に記載の動画蓄積方法。If it is determined that normal transfer cannot be performed during the transfer, the step of stopping the transfer,
Holding the information indicating the untransferred portion generated due to the stop of the transfer.
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビング手段とを有することを特徴とする動画蓄積装置。Moving image data dubbing means for dubbing moving image data stored in the first storage medium to the second storage medium;
A moving image storage device, comprising: auxiliary information dubbing means for extracting additional information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
前記転送停止により発生する未転送部分を示す情報を保持する情報保持手段とを更に有することを特徴とする請求項11に記載の動画蓄積装置。When it is determined that normal transfer cannot be performed during transfer, transfer stop means for stopping the transfer,
12. The moving image storage device according to claim 11, further comprising an information holding unit that holds information indicating an untransferred portion generated by the transfer stop.
第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする制御プログラム。A control program for controlling a moving image storage device,
A moving image data dubbing module for dubbing moving image data stored in the first storage medium to a second storage medium;
A control program, comprising: an auxiliary information dubbing module for extracting auxiliary information included in a part that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
前記制御プログラムは、
第1記憶媒体に記憶されている動画データを第2記憶媒体にダビングする動画データダビングモジュールと、
ダビングされない部分に含まれる付属情報を前記第1記憶媒体に記憶されている動画データから抽出して、第2記憶媒体にダビングする付属情報ダビングモジュールとを有することを特徴とする記憶媒体。A computer-readable storage medium storing a control program for controlling a moving image storage device,
The control program includes:
A moving image data dubbing module for dubbing moving image data stored in the first storage medium to a second storage medium;
A storage medium, comprising: an auxiliary information dubbing module for extracting auxiliary information included in a portion that is not dubbed from moving image data stored in the first storage medium and dubbing the additional information to a second storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002190538A JP2004040182A (en) | 2002-06-28 | 2002-06-28 | Moving picture storage method and moving picture storage apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002190538A JP2004040182A (en) | 2002-06-28 | 2002-06-28 | Moving picture storage method and moving picture storage apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004040182A true JP2004040182A (en) | 2004-02-05 |
Family
ID=31700437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002190538A Withdrawn JP2004040182A (en) | 2002-06-28 | 2002-06-28 | Moving picture storage method and moving picture storage apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004040182A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008533913A (en) * | 2005-03-15 | 2008-08-21 | レディオスパイア ネットワークス, インコーポレイテッド | System, method, and apparatus for wireless content distribution between a general content source and a general content sink |
JP2009252265A (en) * | 2008-04-02 | 2009-10-29 | Canon Inc | Video storage and reproducing apparatus and control method therefor |
-
2002
- 2002-06-28 JP JP2002190538A patent/JP2004040182A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008533913A (en) * | 2005-03-15 | 2008-08-21 | レディオスパイア ネットワークス, インコーポレイテッド | System, method, and apparatus for wireless content distribution between a general content source and a general content sink |
JP2009252265A (en) * | 2008-04-02 | 2009-10-29 | Canon Inc | Video storage and reproducing apparatus and control method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3815458B2 (en) | Information processing apparatus, information processing method, and program | |
EP1111612B1 (en) | Method and device for managing multimedia file | |
JP4224690B2 (en) | Recording method, recording apparatus, reproducing method, reproducing apparatus, and imaging apparatus | |
WO2006030767A1 (en) | Data processing device | |
JP4542546B2 (en) | Data processing device | |
JP2007082088A (en) | Contents and meta data recording and reproducing device and contents processing device and program | |
US20070263102A1 (en) | Image-Information Recording Device and Image-Information Display Device | |
JP4591405B2 (en) | Information processing apparatus, information processing method, and computer program | |
WO2006121049A1 (en) | Data processing device | |
JP2002101372A (en) | Camera incorporated type data recording and reproducing device and data recording and reproducing method | |
JP2002152665A (en) | Recording/reproducing device with play list generation guide function | |
US20050105892A1 (en) | Reproducing device | |
JPH11185446A (en) | Image-recording/reproduction device | |
JP2004040182A (en) | Moving picture storage method and moving picture storage apparatus | |
JP2009010839A (en) | Image data reproduction apparatus and image data reproduction method | |
JP2006245744A (en) | Video signal recording device, information recording medium, and video signal reproducing device | |
JP2003339019A (en) | Recording and reproducing apparatus and recording and reproducing method | |
JPWO2002080542A1 (en) | AV data recording / reproducing apparatus and method, and recording medium recorded by the AV data recording / reproducing apparatus or method | |
JP2004040183A (en) | Moving picture storage method and moving picture storage apparatus | |
JP3901555B2 (en) | AV data recording apparatus and method, disc recorded by the AV data recording apparatus or method, and AV data reproducing apparatus and method or AV data recording / reproducing apparatus and method for reproducing the disc | |
JP3973568B2 (en) | Data processing apparatus, data reproducing apparatus, data processing method, and data reproducing method | |
JP2004056396A (en) | Moving picture storage method and moving picture storage apparatus | |
JP2008252438A (en) | Recording method | |
JP2010010964A (en) | Electronic device | |
JP2004040181A (en) | Moving picture storage method and moving picture storage apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050906 |