JP2007243907A - 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体 - Google Patents

記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2007243907A
JP2007243907A JP2006222869A JP2006222869A JP2007243907A JP 2007243907 A JP2007243907 A JP 2007243907A JP 2006222869 A JP2006222869 A JP 2006222869A JP 2006222869 A JP2006222869 A JP 2006222869A JP 2007243907 A JP2007243907 A JP 2007243907A
Authority
JP
Japan
Prior art keywords
representative image
file
control information
recording
box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2006222869A
Other languages
English (en)
Inventor
Osamu Date
修 伊達
Toshiya Ishizaka
敏弥 石坂
Mitsuhiro Hirabayashi
光浩 平林
Satoshi Tsujii
訓 辻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006222869A priority Critical patent/JP2007243907A/ja
Priority to US11/704,155 priority patent/US20070201832A1/en
Priority to EP07002839A priority patent/EP1818937A1/en
Priority to KR1020070013854A priority patent/KR20070081448A/ko
Priority to TW096104888A priority patent/TW200746083A/zh
Publication of JP2007243907A publication Critical patent/JP2007243907A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Abstract

【課題】本発明は、例えばビデオカメラに適用して、代表画像を用いて頭出しできるようにビデオデータを記録して、記録媒体から代表画像を再生する際のランダムアクセス性を向上し、さらにはビデオデータと代表画像との不整合を簡易かつ確実に検出することができるようにする。
【解決手段】本発明は、代表画像を代表画像格納部に格納すると共に、格納した情報が代表画像の制御情報であることを示す情報、動画ファイルの更新日時を示す情報、1つの代表画像を最小再生単位とした制御情報を階層的に制御情報格納部に格納する。
【選択図】 図1

Description

本発明は、記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体に関し、例えばビデオカメラに適用することができる。本発明は、代表画像を代表画像格納部に格納すると共に、格納した情報が代表画像の制御情報であることを示す情報、動画ファイルの更新日時を示す情報、1つの代表画像を最小再生単位とした制御情報を順次階層的に制御情報格納部に格納することにより、代表画像を再生する際のランダムアクセス性を向上し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
近年、ハードディスクレコーダ等の記録再生装置は、記録容量が飛躍的に大容量化しており、これによりユーザーは、記録媒体を頻繁に交換することなく、従来に比して長時間の動画ファイルを多数記録することができる。
このような記録再生装置で記録した動画ファイルを視聴する場合、ユーザーによっては、動画ファイルの一部分だけを確認したい場合がある。また途中の盛り上がった個所から動画ファイルを視聴したい場合がある。このような場合に、ファイル先頭から順番に動画ファイルを再生していたのでは、操作が面倒になり、所望するシーンを簡易かつ迅速に視聴することが困難になる。
このため特開2004−260452号公報には、動画ファイルを記録する際に一定の時間間隔でチャプターを設定して代表画像を記録し、ユーザーが代表画像を選択すると、この選択した代表画像に対応するチャプターを用いて頭出しする方法が提案されている。なおここで代表画像は、動画を構成するフレーム画像の所定グループを代表する画像であり、例えばサムネイル画像が適用される。
しかしながら動画ファイルの記録時間が長くなると、その分、設定されるチャプター数、作成される代表画像の枚数も多くなり、1つの動画ファイルから作成された複数の代表画像を1画面で一覧表示できなくなる。従ってこの場合、ユーザーの操作に応動して一覧表示する代表画像を切り換えることが必要になる。すなわち例えばファイル先頭側に設定された代表画像の一覧表示をユーザーが指示した場合、現在表示中の代表画像からファイル先頭側の代表画像を検出して一覧表示を切り換えることが必要になる。またこれとは逆に、ファイル末尾側に設定された代表画像の一覧表示をユーザーが指示した場合、現在表示中の代表画像からファイル末尾側の代表画像を検出して一覧表示を切り換えることが必要になる。
これによりこの種の記録再生装置は、ユーザーが指示した箇所の代表画像を記録媒体から簡易かつ迅速に再生できるようにすることが望まれ、記録媒体から代表画像を再生する際のランダムアクセス性を向上することが望まれる。しかしながらチャプターによる代表画像の管理では、代表画像の数が多くなると、ランダムアクセス性が低下する問題がある。
またこのような動画ファイルは、ユーザーにより編集される場合もあり、この場合、代表画像と動画ファイルとの整合性が乱れてしまう。具体的に、例えばユーザーが動画ファイルを部分的に削除した場合、この削除した部分については、代表画像が存在するにも係わらず、チャプターを用いて頭出しできなくなる。これによりこのような不整合な状態を解消することが求められ、このためにはこのような不整合の状態を簡易かつ確実に検出することが求められる。
特開2004−260452号公報
本発明は以上の点を考慮してなされたもので、代表画像を用いて頭出しできるようにして、代表画像を記録媒体から再生する際のランダムアクセス性を向上し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体を提案しようとするものである。
上記の課題を解決するため請求項1の発明は、記録装置に適用して、動画を動画ファイルとして記録媒体に記録する動画記録制御手段と、前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成手段と、前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御手段とを備え、前記代表画像記録制御手段は、前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する。
また請求項8の発明は、記録方法に適用して、動画を動画ファイルとして記録媒体に記録する動画記録制御のステップと、前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、前記代表画像記録制御のステップは、前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する。
また請求項9の発明は、演算処理手段の実行により動画を記録媒体に記録する記録方法のプログラムに適用して、前記動画を動画ファイルとして前記記録媒体に記録する動画記録制御のステップと、前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、前記代表画像記録制御のステップは、前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する。
また請求項10の発明は、演算処理手段の実行により動画を記録媒体に記録する記録方法のプログラムを記録した記録媒体に適用して、前記記録方法のプログラムは、前記動画を動画ファイルとして前記記録媒体に記録する動画記録制御のステップと、前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、前記代表画像記録制御のステップは、前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する。
また請求項11の発明は、記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生装置に適用して、前記代表画像ファイルは、前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、前記再生装置は、前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生部と、前記データ再生部で再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示部と、前記データ再生部で再生されたデータを処理して、前記表示部の表示を制御する制御部とを備え、前記制御部は、前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示部で一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、該一覧表示した代表画像の選択を受け付け、前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示部で表示する。
また請求項12の発明は、記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法に適用して、前記代表画像ファイルは、前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、前記再生方法は、前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、前記制御のステップは、前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、該一覧表示した代表画像の選択を受け付け、前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する。
また請求項13の発明は、演算処理手段の実行により記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法のプログラムに適用して、前記代表画像ファイルは、前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、前記再生方法は、前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、前記制御のステップは、前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、該一覧表示した代表画像の選択を受け付け、前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する。
また請求項14の発明は、演算処理手段の実行により記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法のプログラムを記録した記録媒体に適用して、前記代表画像ファイルは、前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、前記再生方法は、前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、前記制御のステップは、前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、該一覧表示した代表画像の選択を受け付け、前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する。
請求項1、請求項8、請求項9、請求項10の構成によれば、代表画像の制御情報に基づいて、代表画像を1枚単位で再生してランダムアクセス性を確保することができる。また動画を特定する情報により、ユーザーの選択した代表画像から対応するフレーム画像を再生することができ、代表画像を用いて頭出しすることもできる。また動画ファイルの更新日時を示す情報を判定して動画ファイルと代表画像ファイルとの間の不整合も簡易かつ確実に検出することができる。従って代表画像を用いて頭出しできるようにして、代表画像を記録媒体から再生する際のランダムアクセス性を確保し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
また請求項11、請求項12、請求項13、請求項14の構成によれば、代表画像を用いて頭出しできるように、代表画像を記録媒体から再生する際のランダムアクセス性を確保し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができるように代表画像を記録した記録媒体から、代表画像を用いて動画を頭出しすることができる。
本発明によれば、代表画像を用いて頭出しできるように動画ファイルを記録して、代表画像を記録媒体から再生する際のランダムアクセス性を確保し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
以下、適宜図面を参照しながら本発明の実施例を詳述する。
(1)実施例の構成
図2は、本発明の実施例に係るビデオカメラを示すブロック図である。なおこのビデオカメラ1は、ビデオデータの処理系に対応するようにオーディオデータの処理系が設けられているものの、この図2では、このオーディオデータの処理系については、記載を省略して示す。このビデオカメラ1において、カメラ部2は、制御部3の制御に応じて動画による撮像結果を取得し、この撮像結果の画像データをカメラDSP(Digital Signal Processor)4に出力する。
すなわちカメラ部2において、光学ブロック11は、光学ブロック用ドライバ(ドライバ)12の駆動により絞り、ズーム倍率、フォーカス等を可変して入射光を集光し、続くCCD(Charge Coupled Device )固体撮像素子(CCD)13の撮像面に被写体の光学像を形成する。光学ブロック用ドライバ12は、制御部3の制御に応じて光学ブロック11を駆動する。
CCD固体撮像素子13は、CCD用ドライバ(ドライバ)14の駆動により、撮像面に形成された光学像を光電変換処理し、光電変換処理結果による撮像結果を出力する。CCD用ドライバ14は、制御部3の制御に従ってCCD固体撮像素子13を駆動し、タイミング生成回路15は、これらCCD固体撮像素子13、CCD用ドライバ14の動作に必要な各種タイミング信号を生成して出力する。
前処理回路16は、CCD固体撮像素子13の出力信号を相関二重サンプリング処理(CDS:Correlated Double Sampling)、自動利得調整処理(AGC:Automatic Gain
Control)した後、アナログディジタル変換処理して画像データを生成する。カメラ部2は、この画像データをカメラDSP4に出力する。
カメラDSP4は、制御部3の制御に従って動作を切り換え、カメラ部2から出力される画像データを処理してビデオデータを生成し、さらにモニタ用のビデオデータを生成して制御部3に出力する。またこのビデオデータをデータ圧縮処理して記録用のストリーミングデータを生成し、このストリーミングデータを制御部3に出力する。また再生時、制御部3から出力されるストリーミングデータをデータ伸長処理してビデオデータを生成し、モニタ用のビデオデータを制御部3に出力する。
すなわちカメラDSP4において、カメラ信号処理部21は、カメラ部2から出力される画像データをマトリックス演算処理してビデオデータを生成し、このビデオデータから自動フォーカス調整(AF:Auto Focus)、自動絞り調整(AE:Auto Exposure )に必要な情報を取得して制御部3に出力する。またこのビデオデータをオートホワイトバランス(AWB:Auto White Balance)調整、ガンマ補正処理、ニー処理等する。カメラDSP4は、このカメラ信号処理部21で処理されたビデオデータの解像度を低減してモニタ用のビデオデータを生成し、このモニタ用のビデオデータを制御部3に出力する。
メモリコントローラ22は、カメラ信号処理部21で処理されたビデオデータを順次メモリ23に記録し、またこのメモリ23に記録したビデオデータを読み出して圧縮/解凍部24に出力する。また再生時、制御部3から出力されるストリーミングデータをメモリ23に一時格納して圧縮/解凍部24に出力する。なおここでメモリ23は、例えばSDRAM(Synchronous Dynamic Random Access Memory)である。
圧縮/解凍部24は、MPEG(Moving Picture Experts Group)−4AVC(Advanced Video Coding)のフォーマットに従って、メモリ23から出力されるビデオデータをデータ圧縮して記録用のストリーミングデータを生成し、このストリーミングデータを制御部3に出力する。また再生時、メモリ23を介して入力されるストリーミングデータをデータ伸長してビデオデータを生成する。カメラDSP4は、再生時、このデータ伸長されたビデオデータからモニタ用のビデオデータを生成して制御部3に出力する。
さらに圧縮/解凍部24は、ストリーミングデータを生成する際に、Iピクチャーに設定したビデオデータの解像度を低減してサムネイル画像の画像データを生成し、このサムネイル画像の画像データを代表画像の画像データとして制御部3に出力する。これによりこの実施例では、1GOP(Group Of Pictures )を構成する複数枚のピクチャー毎に、これら複数枚のピクチャーのうちの1枚のピクチャーから代表画像を生成する。なお代表画像は、必ずしも1GOPで1枚生成する必要は無く、複数のGOPで1枚作成するようにしてもよい。また複数のGOPで1枚作成する場合には、この複数のGOPの何れのGOPで1枚の代表画像を作成するようにしてもよく、例えばこれら複数のGOPの中からランダムに選択した1つのGOPで1枚の代表画像を作成してもよい。なおこれによりこの実施例では、ストリーミングデータを作成しながら代表画像の画像データを作成することになるが、これに代えてストリーミングデータの記録が完了した後に、自動的に、又はユーザーの指示により別途、代表画像の画像データを作成してもよい。また他のGOPのピクチャーを参照しないいわゆるクローズドGOPによりストリーミングデータを生成するようにして、Iピクチャーに代えて、Pピクチャー、Bピクチャーから代表画像を作成するようにしてもよい。
制御部3は、このビデオカメラ1に設けられたタッチパネル、コントロールキー等による操作部31の操作に応動して各部の動作を制御し、カメラDSP4から出力されるモニタ用のビデオデータをLCD(Liquid Crystal Display)32で表示する。またカメラDSP4から出力されるストリーミングデータを記録媒体33に記録し、また記録媒体33に記録されたストリーミングデータを再生してカメラDSP4に出力する。
すなわち制御部3において、時計回路45は、現在日時による時間情報を中央処理ユニット(CPU:Central Processing Unit )41に通知する。
中央処理ユニット41は、RAM(Random Access Memory)42にワークエリアを確保してフラッシュROM(Read Only Memory)43に格納された処理プログラムを実行することにより、操作部31の操作に応動して各部の動作を制御する。なおこれによりこの実施例では、この中央処理ユニット41の処理プログラムは、このビデオカメラ1に事前にインストールされて提供されるものの、これに代えて光ディスク、磁気ディスク、メモリカード等の各種記録媒体に記録して提供するようにしてもよく、またインターネット等のネットワークを介したダウンロードにより提供するようにしてもよい。
この各部の制御により、中央処理ユニット41は、カメラ部2で撮像結果を取得し、この撮像結果のビデオデータをカメラDSP4から内部バス44に入力する。またこの内部バス44に入力したビデオデータをLCDコントローラ36に出力し、LCDコントローラ36によるLCD32の駆動により、撮像結果のモニタ画像を表示する。またこのときカメラDSP4から出力される自動フォーカス調整、自動絞り調整に必要な情報に基づいてカメラ部2の動作を制御し、これにより自動フォーカス調整、自動絞り調整の処理を実行する。
またこの状態でユーザーが撮像結果の記録を指示すると、カメラDSP4でストリーミングデータを生成し、このストリーミングデータを内部バス44に入力する。またこのストリーミングデータを媒体インターフェース34に出力し、これにより撮像結果を記録媒体33に記録する。なおここで記録媒体33は、半導体メモリを用いたいわゆるメモリカード、記録可能なDVD(Digital Versatile Disk)、記録可能なCD(Compact Disc)等の光ディスク、磁気ディスク等、種々の記録媒体を適用することができるものの、この実施例ではメモリカードが適用される。
またこのような撮像結果の記録媒体33への記録に代えて、外部機器への出力をユーザーが指示すると、カメラDSP4から出力されるストリーミングデータを外部インターフェース(外部I/F)35に出力し、これによりこの外部インターフェース35に接続された外部機器に撮像結果を出力する。なおここでこの外部機器は、パーソナルコンピュータ、通信モジュール等であり、外部インターフェース35は、IEEE(Institute of Electrical and Electronics Engineers )1394、USB(Universal Serial Bus)等の有線用インターフェース、光、電波による無線インターフェース等を適用することができる。
これに対してユーザーが再生を指示すると、記録媒体33に記録されたストリーミングデータを再生してカメラDSP4に出力し、このストリーミングデータをカメラDSP4でデータ伸長してビデオデータを生成する。またこのビデオデータよるモニタ用のビデオデータをカメラDSP4から入力してLCD32で表示し、これにより記録媒体33に記録された撮像結果のモニタ画像を表示する。またこのようにして再生した撮像結果の外部機器への出力が指示されると、記録媒体33から再生されるデータを外部インターフェース35を介して外部機器に出力し、又はカメラDSP4でデータ伸長したビデオデータを外部インターフェース35を介して外部機器に出力する。
また外部機器からの動画ファイルの入力をユーザーが指示すると、外部インターフェース35を介してストリーミングデータを取得し、このストリーミングデータをカメラDSP4に出力してビデオデータを生成する。またこのビデオデータによるモニタ用のビデオデータをカメラDSP4から入力してLCD32により表示し、これにより外部機器から入力される動画ファイルのモニタ画像を表示する。またこのようにモニタ画像を表示してユーザーにより記録媒体33への記録が指示されると、外部インターフェース35を介して入力されるストリーミングデータを媒体インターフェース34に出力し、これによりこのストリーミングデータを記録媒体33に記録する。
これらの一連の処理において、中央処理ユニット41は、適宜、後述するサムネイル画像の一覧表示用の画像データ、各種メニュー画面用の画像データ等を生成してLCDコントローラ36に出力し、これらメニュー画面、サムネイル画像の一覧表示画面等を表示する。またこの表示におけるユーザーによる選択操作により、ユーザーによる操作を受け付ける。
また中央処理ユニット41は、カメラDSP4からストリーミングデータを入力して媒体インターフェース34又は外部インターフェース35に出力する場合、圧縮/解凍部24で生成される代表画像の画像データをRAM42に格納して一時保持する。またストリーミングデータの出力が完了すると、この一時保持した代表画像の画像データを続いて出力する。これにより中央処理ユニット41は、ストリーミングデータと代表画像の画像データとを記録し、又は外部機器に出力する。
中央処理ユニット41は、このようにしてストリーミングデータ及び代表画像の画像データを記録、出力するようにして、ISO/IEC14496に従ったファイルフォーマットを、これらデータのファイルに適用する。このため中央処理ユニット41は、ストリーミングデータを記録する際に、このフォーマットに従ったファイルの作成に必要な代表画像の再生時間情報、メタ情報等を取得してRAM42に保持し、これらの情報を後述するモーションサムネイルトラックボックス(motion thumbnail track box)等に格納する。なお以下において、ストリーミングデータによる動画ファイルをAVファイルと呼び、モーションサムネイルトラックボックス(motion thumbnail track box)を有する代表画像ファイルをメタ情報ファイルと呼ぶ。
ここで図1及び図3は、このAVファイルを示す図表である。AVファイルは、AVファイルであることを示す拡張子(MP4)が設定されて、所定の英数字(MAS)と、作成順序による一連の番号(00001)と、この拡張子(MP4)とによりファイル名が設定される。なおここで図3では、ボックス(box )の記載を省略して示す。AVファイルは、階層構造によるボックス構造により形成され、最も上位の階層に、ストリーミングデータ、オーディオデータの実データをまとめてブロック化したメディアデータボックス(media data box)と、これらの実データの再生を制御する制御情報をまとめてブロック化したムービーボックス(movie box )とが形成される。
メディアデータボックス(media data box)は、さらに実データが階層構造によりボックス化され、ストリーミングデータ、オーディオデータは、この階層構造における最下位階層のボックスによる最小再生単位で編集処理、頭出し処理等を実行できるように割り当てられる。
ここでこの最小再生単位は、サンプル(Sample)と呼ばれ、ストリーミングデータは、1枚のピクチャーが1サンプル(Sample)に割り当てられる。オーディオデータは、ストリーミングデータの1サンプル(Sample)に対応する複数サンプリングが1サンプル(Sample)に割り当てられる。
メディアデータボックス(media data box)(図3)は、複数サンプル(Sample)の集合によりチャンク(chunk )が形成され、このチャンク(chunk )が記録媒体の物理的なアクセス単位とされる。実データは、このチャンク(chunk )の時分割多重により記録される。
これに対してムービーボックス(movie box )は、メディアデータボックスに割り当てた実データの再生を制御する制御情報が種別に応じて階層化されて形成される。ムービーボックス(movie box )は、ボックスのタイプ名がmoovに設定され、最も上位階層に、ムービーヘッダボックス(movie header box)、ストリーミングデータに対応するビデオトラックボックス(video track box )、オーディオデータに対応するオーディオトラックボックス(audio track box )が形成される。
ここでムービーヘッダボックス(movie header box)は、タイプ名がmvhdに設定され、ヘッダ情報が収容される。
ビデオトラックボックス(video track box )、オーディオトラックボックスはこのムービーヘッダボックス(movie header box)と同一階層に設けられ、タイプ名がtrack に設定される。また最上位の第1階層に、それぞれトラックヘッダボックス(track header box)、エディットボックス(edit box)、トラックリファレンスボックス(track reference box )、ユーザーメタデータボックス(user meta data box)、メディアボックス(media box )等が設けられ、それぞれメディアデータボックス(media data box)の個々の実データに関する情報が記述される。
ここでトラックヘッダボックス(track header box)は、タイプ名がtkhdに設定され、ヘッダ情報が収容される。またさらにトラックヘッダボックス(track header box)は、図4に示すように、トラックボックス(track box )が作成された日時を示す作成時間情報(creation time )、トラックボックス(track box )の内容が更新された場合の日時を示す更新時間情報(modification time )、トラックボックス(track box )に固有の識別番号であるトラックID(track ID)が割り当てられる。ここでこのフォーマットにおける更新時間情報(modification time )は、本来、同一階層以下のボックスの変更日時が記録され、これによりトラックヘッダボックス(track header box)は、ユーザーメタデータボックス(user meta data box)、エディットボックス(edit box)等の内容が更新された場合に、更新される。
これにより図4の例では、ビデオトラックボックス(video track box )のトラックIDが値1に設定されていることが示されている。またビデオトラックボックス(video track box )の作成時間情報(creation time )、更新時間情報(modification time )が値Aに設定されていることが示されている。
エディットボックス(edit box)(図3)は、タイプ名がedtsに設定され、必要に応じてエディットリストボックス(edit list box )を含み、このエディットリストボックス(edit list box )に、例えば動画像のある区間を表示させるという機能情報、再生速度等の情報が設定される。これによりAVファイルは、このエディットリストボックス(edit list box )の設定により非破壊編集処理することができるように構成される。なおエディットリストボックス(edit list box )は、タイプ名がelstに設定される。
トラックリファレンスボックス(track reference box )は、タイプ名がtrefに設定され、他のトラックボックス(track box )との対応関係を示す情報が割り当てられる。
ユーザーメタデータボックス(user meta data box)は、タイプ名がusmtに設定され、ユーザー独自の各種メタデータを格納することが許される。
メディアボックス(media box )は、タイプ名がmdiaに設定され、それぞれ対応する実データの圧縮方式、格納場所、表示時間等を管理するための情報が割り当てられる。メディアボックス(media box )は、メディアヘッダボックス(media header box)、メディアハンドラリファレンスボックス(media handler reference box (図3においてはmedia handler により示す))、メディア情報ボックス(media information box )により構成される。従ってこれらメディアヘッダボックス(media header box)、メディアハンドラリファレンスボックス(media handler reference box )、メディア情報ボックス(media information box )は、トラックボックスの第2階層に設けられる。
ここでメディアヘッダボックス(media header box)は、タイプ名がmdhdに設定され、ヘッダ情報が割り当てられる。またメディアヘッダボックス(media header box)は、図4に示すように、対応する実データが作成された日時を示す作成時間情報(creation time )、対応する実データが更新、変更された場合の日時を示す更新時間情報(modification time )が割り当てられる。ここでこの更新時間情報(modification time )も、このフォーマットでは、本来、同一階層以下のボックスの変更日時が割り当てられ、これにより破壊編集処理により実データが変更されると、これに対応してこの変更された日時を示すように更新時間情報(modification time )が変更される。従ってAVファイルが破壊編集処理された場合、AVファイルは、メディアヘッダボックス(media header box)内の更新時間情報(modification time )が更新される。
メディアハンドラリファレンスボックス(media handler reference box )は、タイプ名がhdlrに設定され、対応する実データの種類が記録される。
メディア情報ボックス(media information box )は、最小の管理単位であるサンプルの情報が割り当てられ、タイプ名がminfに設定される。これによりAVファイルは、実データの最小再生単位である1サンプルのピクチャーを単位にして、制御情報が設定される。具体的にメディア情報ボックス(media information box )は、実データに対応するメディアヘッダボックス(madia header box)(図3においてはvideo madia headerにより示す)、データハンドラリファレンスボックス(data handler reference box(図3においては、data handlerにより示す))、データ情報ボックス(data information box)、サンプルテーブルボックス(sample table box)により構成される。
ここでメディアヘッダボックス(madia header box)は、上位のメディアハンドラリファレンスボックス(media handler reference box )に対応してタイプ名が設定され、ヘッダ情報が収容される。データハンドラリファレンスボックス(data handler reference box)は、対応する実データの取り扱いに関する情報が設定され、タイプ名がhdlrに設定される。データ情報ボックス(data information box)は、下位階層のデータリファレンスボックス(data reference box)により実際に参照するデータの格納場所、格納方法の情報が割り当てられる。
サンプルテーブルボックス(sample table box)は、最小再生単位である各サンプルに対応する制御情報が割り当てられ、タイプ名がstblに設定される。サンプルテーブルボックス(sample table box)は、サンプルディスクリプションボックス(sample description box)、時間サンプルボックス(time-to-sample box)、サンプルサイズボックス(sample size box )、サンプルチャンクボックス(sample-to-chunk box )、チャンクオフセットボックス(chunk offset box)、同期サンプルボックス(sync sample box )、コンポジション時間サンプルボックス(composition time-to-sample box)等により構成される。従ってトラックボックスは、第3階層に、最小再生単位で実データを再生制御するための制御情報が格納される。
ここでサンプルディスクリプションボックス(sample description box)は、デコードに関する情報が保存され、具体的にデータ圧縮方式、関連する情報が割り当てられる。時間サンプルボックス(time-to-sample box)は、各サンプルとデコードに係る時間軸との関係が記述される。サンプルサイズボックス(sample size box )は、各サンプルのデータ量が記述される。サンプルチャンクボックス(sample-to-chunk box )は、チャンク(chunk )とそのチャンク(chunk )を構成するサンプル(sample)との関係が記述される。チャンクオフセットボックス(chunk offset box)は、ファイル先頭を基準にした各チャンク先頭の位置情報が記録される。同期サンプルボックス(sync sample box )は、オプションであり、ビデオトラックボックスでは各サンプルにおけるIピクチャーの位置情報がテーブルの形式により記述される。
これにより中央処理ユニット41は、記録媒体の物理的なアクセス単位であるチャンクを単位にした時分割多重化によりストリーミングデータ、オーディオデータを記録媒体33に記録しながら、ムービーボックス(movie box )の作成に必要な制御情報を取得してRAM42に記録して保持し、撮像結果の記録媒体33への記録の完了により、これら図1及び図3、図4について説明したフォーマットによりこの記録して保持した制御情報を記録媒体33に記録し、これによりAVファイルを記録媒体33に記録する。
これに対して図5は、図3との対比によりメタ情報ファイルを示す図表である。メタ情報ファイルは、代表画像によるファイルであり、メタ情報ファイルであることを示す拡張子(MTI)が設定され、この拡張子(MTI)を除いて、対応するAVファイルと同一のファイル名に設定される(図1参照)。メタ情報ファイルは、AVファイルと同様に、階層構造によるボックス構造により形成される。従って、メタ情報ファイルは、最も上位の階層に、代表画像の画像データをまとめてブロック化した代表画像の格納部であるメディアデータボックス(media data box)と、これらの実データの再生を制御する制御情報をまとめてブロック化した制御情報の格納部であるムービーボックス(movie box )とが形成される。
またこのメディアデータボックス(media data box)では、1サンプル(Sample)に、サムネイル画像の1枚が割り当てられる。また1サンプル(Sample)で1チャンク(chunk )が形成され、チャンク(chunk )の連続により代表画像の画像データが格納される。これによりメディアデータボックス(media data box)は、代表画像を格納する代表画像格納部を構成する。
これに対してムービーボックス(movie box )は、最も上位階層に、ムービーヘッダボックス(movie header box)、代表画像の画像データに対応するモーションサムネイルトラックボックス(motion thumbnail track box)が形成される。またモーションサムネイルトラックボックス(motion thumbnail track box)には、トラックヘッダボックス(track header box)、エディットボックス(edit box)、トラックリファレンスボックス(track reference box )、ユーザーメタデータボックス(user meta data box)、メディアボックス(media box )等が設けられ、それぞれAVファイルと同様に、代表画像の画像データに対応する各種の制御情報がそれぞれ割り当てられる。これによりメタ情報ファイルは、実データの最小再生単位である1枚の代表画像を単位にして、制御情報が設定される。またモーションサムネイルトラックボックス(motion thumbnail track box)は、代表画像格納部に格納した代表画像の再生を制御する制御情報を、この制御情報の種別に応じて階層的に格納する制御情報格納部を構成する。
これにより中央処理ユニット41は、ストリーミングデータ、オーディオデータを記録媒体33に記録しながら、メタ情報ファイルの作成に必要な制御情報を取得してRAM42に記録して保持し、AVファイルの記録媒体33への記録の完了により、この図5について説明したフォーマットによりこの記録して保持した情報を記録媒体33に記録し、これによりメタ情報ファイルを記録媒体33に記録する。
この一連の処理において、中央処理ユニット41は、AVファイルに関してビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)における作成時間情報(creation time )、更新時間情報(modification time )については、ビデオトラックボックス(video track box )の記録媒体33への記録日時を設定する。これに対して、図4において矢印aにより示すように、メタ情報ファイルに関して、モーションサムネイルトラックボックス(motion thumbnail track box)のトラックヘッダボックス(track header box)における作成時間情報(creation time )、更新時間情報(modification time )については、対応するビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)における作成時間情報(creation time )、更新時間情報(modification time )と同一の値Aに設定し、これにより動画ファイルと代表画像との不整合を簡易かつ確実に検出することができるようにする。
また中央処理ユニット41は、図4において矢印bにより示すように、モーションサムネイルトラックボックス(motion thumbnail track box)のユーザーメタデータボックス(user meta data box)に、図6を用いて後述する対応するビデオデータを特定する情報(ref stream)(図4では、トラックIDにより示す)を設定し、これによりモーションサムネイルトラックボックス(motion thumbnail track box)とビデオトラックボックス(video track box )との対応関係を記録する。
またAVファイルのメディアヘッダボックス(media header box)における作成時間情報(creation time )、更新時間情報(modification time )については、トラックヘッダボックス(track header box)における作成時間情報(creation time )、更新時間情報(modification time )と同一に、記録媒体33への記録日時を設定する。これに対して矢印cにより示すように、メタ情報ファイルのメディアヘッダボックス(media header box)における作成時間情報(creation time )、更新時間情報(modification time )については、対応するビデオトラックボックス(video track box )のメディアヘッダボックス(media header box)における作成時間情報(creation time )、更新時間情報(modification time )と同一の値Bに設定する。なお図9について後述するように、動画ファイルと代表画像の不整合の検出処理では、更新時間情報だけを用いていることから、メタ情報ファイルのトラックヘッダボックス、メディアヘッダボックスの作成時間情報については、ビデオトラックボックスと同一の値に設定する処理を省略してもよい。
また中央処理ユニット41は、モーションサムネイルトラックボックス(motion thumbnail track box)のユーザーメタデータボックス(user meta data box)を、図6に示すように形成する。ここでユーザーメタデータボックス(user meta data box)は、メタデータボックス(meta data box )と、メタタイプボックス(meta type def box )とにより構成される。
メタデータボックス(meta data box )は、タイプ名がmtdtに設定され、対応する動画を特定する情報である(ref stream(Metadata unit #2 ))が設けられる。ここでこの対応する動画を特定する情報(ref stream)は、対応するAVファイルにおいて、対応するビデオトラックを特定する情報であり、この実施例では、AVファイルに設けられたビデオトラックのトラックID(track ID)が設定される。従って対応する動画ファイルが、ISO/IEC14496準拠とは異なるファイルの場合、具体的に例えばMPEG2によるプログラムストリームで構成されたファイルの場合、動画を特定する情報(ref stream)は、このプログラムストリームにおいて、ビデオデータのストリーミングを特定するストリームID(stream ID )が割り当てられる。
またメタデータボックス(meta data box )は、このトラックボックスがモーションサムネイルトラック(motion thumbnail track)であることを示すモーションサムネイルトラックID(motion thumbnail track ID (Metadata unit #3))が割り当てられる。ここでこの実施例では、モーションサムネイルトラック(motion thumbnail track)に代表画像の再生を制御する制御情報が割り当てられていることにより、モーションサムネイルトラックID(motion thumbnail track ID )は、モーションサムネイルトラックボックスに格納した情報が、代表画像の再生を制御する制御情報であることを示すことになる。これによりメタ情報ファイルは、モーションサムネイルトラック(motion thumbnail track)であることを示すモーションサムネイルトラックID(motion thumbnail track ID )が、対応する動画を特定する情報(ref stream)と同一階層に割り当てられ、これらの情報を1つのボックスから同時に取得して、メタ情報ファイルの処理を高速度化できるように構成される。また上位階層であるユーザーメタデータボックス(user meta data box)にモーションサムネイルトラックID(motion thumbnail track ID )を設けたことにより、従来では、図5で示すメディアハンドラリファレンスボックス(media handler reference box )下に格納された実データの種別によりトラックの種別を判別する必要があったが、本手法により下位階層まで解析しなくても、トラックの種別を判別して、メタ情報ファイルを迅速に処理できるように構成される。
メタタイプボックス(meta type def box )は、メタデータボックス(meta data box
)に記録されることが予定されるメタデータ以外の未定義なメタデータを記録する際に、そのデータが何を表すものかを定義するための情報が格納される。ここでこの実施例では、このメタデータ以外のデータとして、トラックボックスがモーションサムネイルトラックボックス(motion thumbnail track box)であることを示す情報(motion thumbnail track ID )、対応する動画を特定する情報(ref stream)以外の情報が割り当てられる。なおこれら以外の情報とは、例えば、未定義なメタデータとして、ユーザーが自由に入力する文字情報等である。これによりメタ情報ファイルは、メタデータボックス(meta data box )及びメタタイプボックス(meta type def box )を同一階層である上位の階層に設定して、想定外のメタデータを割り当てた場合であっても、迅速に解析して対応できるように構成される。
また中央処理ユニット41は、ストリーミングデータを生成する際に各GOPでピクチャーを並べ替えした後の先頭ピクチャーから代表画像を作成するピクチャーまでの時間情報を、モーションサムネイルトラックボックス(motion thumbnail track box)の上位階層のボックスに記録する。すなわち図7に示すように、中央処理ユニット41は、各GOPのディスプレイオーダー(display order )の先頭ピクチャー(この図7の例では先頭のBピクチャーであるB0ピクチャー)から、代表画像を設定したピクチャー(この実施例ではIピクチャーであるIDR2ピクチャー)までの再生時間の差分値であるオフセット時間情報(time offset )を、モーションサムネイルトラックボックス(motion thumbnail track box)のエディットリストボックス(edit list box )に設定する。これにより中央処理ユニット41は、このオフセット時間情報(time offset )を用いて代表画像に対応するピクチャーを正しく検出できるようにする。なおこの実施例において、このオフセット時間情報(time offset )は、ビデオトラックボックス(video track box )のタイムスケールで設定される。
また中央処理ユニット41は、このような記録媒体33への記録に代えて、外部機器への撮像結果の出力が指示されると、同様にしてAVファイル、メタ情報ファイルを作成して出力する。
これに対して記録媒体33に記録されたAVファイルの再生をユーザーが指示すると、対応するAVファイルのビデオトラックボックス(video track box )、オーディオトラックボックスに設定された制御情報により順次メディアデータボックスに設定された実データを再生するように全体の動作を制御する。
このときこのユーザーがフィルムロール再生を指示すると、中央処理ユニット41は、対応するメタ情報ファイルを検出し、モーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)に設定された制御情報に基づいて、所定枚数分、代表画像の画像データを記録媒体33から再生してRAM42に保持する。またこのRAM42に保持した画像データを用いて、図8に示すように、LCD32の表示画面の中央より下側に、この所定枚数の代表画像を横方向に時系列により並べて一覧表示する。またこの一覧表示の下側に、スクロールバーB1を表示し、ストリーミングデータ上における一覧表示した代表画像の位置に対応する位置に、マーカーM1を表示する。
また矢印Aにより示すように、このマーカーM1をユーザーの操作に応動して移動させ、このマーカーM1の移動に対応するように、矢印Bにより示すように、代表画像の表示をスクロールさせて代表画像の表示を切り換える。これによりこの場合、中央処理ユニット41は、モーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)に設定された制御情報に基づいて、時間軸方向に、又は時間軸を逆上る方向に、記録媒体33から代表画像の画像データ再生し、この再生した画像データによりRAM42に保持した画像データを更新する。またこの更新した画像データにより代表画像の一覧表示を切り換える。
また矢印Cにより示すように、このようにして表示した代表画像をユーザーが選択すると、この選択された代表画像に対応するストリーミングデータによる静止画像を、LCD32の表示画面、中央のウインドウB2に表示する。これによりこの場合、中央処理ユニット41は、モーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)から、ユーザーが選択した代表画像の再生時間情報を検出し、この再生時間情報に対応するストリーミングデータの記録位置情報をビデオトラックボックス(video track box )のサンプルテーブルボックス(sample table box)から検出する。またこの検出した記録位置情報により対応する1GOPのストリーミングデータを記録媒体33から再生してカメラDSP4でデータ伸長する。またこのデータ伸長を表示の順序(display order )に並べ替え、この並べ替えたGOPの先頭ピクチャーからエディットリストボックス(edit list box )に記録されたオフセット時間情報の分だけ時間経過したピクチャーを検出する。中央処理ユニット41は、このピクチャーの静止画像をウインドウB2に表示する。またこのように静止画像をウインドウB2に表示して、ユーザーが代表画像の選択を変更すると、これに対応するように静止画像の表示を切り換える。
これに対してこのように静止画像をウインドウB2に表示した状態で、ユーザーがファイルの再生開始を指示すると、このウインドウB2に表示した個所から記録媒体33に記録されたAVファイルのストリーミングデータ、オーディオデータの再生を開始する。これにより中央処理ユニット41は、簡易に頭出しできるようにする。
またこのように静止画像をウインドウB2に表示した状態で、ユーザーが編集点を設定すると、この操作に応動してGOPを単位にしてイン点、アウト点を設定する。またさらにユーザーが編集を指示すると、イン点、アウト点の設定に対応するように、記録媒体33に記録されたAVファイルを編集する。この場合、中央処理ユニット41は、記録媒体33に記録されたAVファイルの実データを変更する破壊編集により編集の処理を実行する。これにより中央処理ユニット41は、編集より削除する部分については、メディアデータボックスからストリーミングデータを削除し、またこれに対応するように代表画像の画像データ、オーディオデータをメディアデータボックスから削除し、代表画像とストリーミングデータとの不整合を防止する。
また中央処理ユニット41は、この実データの変更に対応するように、ビデオトラックボックス(video track box )、オーディオトラックボックス、モーションサムネイルトラックボックス(motion thumbnail track box )の記録を更新する。このとき中央処理ユニット41は、ビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)及びメディアヘッダボックス(media header box)の更新時間情報(modification time )については、編集処理結果を記録媒体33に記録する日時を設定する。またモーションサムネイルトラックボックス(motion thumbnail track box)のトラックヘッダボックス(track header box)及びメディアヘッダボックス(media header box)の更新時間情報(modification time )については、ビデオトラックボックス(video track box )の対応する更新時間情報(modification time )を記録する。これにより中央処理ユニット41は、ストリーミングデータと代表画像との不整合を簡易かつ確実に検出できるようにする。
すなわち記録媒体33は、このビデオカメラ1から取り外されてコンピュータ等の機器に装着されて、内容が更新される場合がある。AVファイルは、ISO/IEC14496に従ったファイルフォーマットであることから、このISO/IEC14496によるファイルを処理可能な機器では、種々に編集処理されて内容が変更される場合が予測される。ここでこのような機器が、このAVファイルに設けられたモーションサムネイルトラックボックス(motion thumbnail track box)に対応可能な機器である場合、ストリーミングデータの編集処理に対応するように代表画像を編集処理して、ストリーミングデータと代表画像との不整合を防止することができる。
しかしながらモーションサムネイルトラックボックス(motion thumbnail track box)に対応できない機器によってAVファイルが編集処理される場合も予測され、この場合、ストリーミングデータと代表画像との不整合が発生する。またこのような機器で記録媒体33に動画ファイルが記録され、この記録媒体33がビデオカメラ1に装着される場合も予測される。
これにより中央処理ユニット41は、記録媒体33が装着されると、又はユーザーによりAVファイルの一覧表示、AVファイルの再生等が指示されると、図9に示す処理手順の実行により、ストリーミングデータと代表画像との不整合を検出する。
すなわち中央処理ユニット41は、この処理手順を開始すると、ステップSP1からステップSP2に移る。ここで中央処理ユニット41は、処理対象のAVファイルのファイル名に基づいて、対応するメタ情報ファイルを検索し、これによりモーションサムネイルトラックボックス(motion thumbnail track box)の有無を検出する。またモーションサムネイルトラックボックス(motion thumbnail track box)を検出すると、このモーションサムネイルトラックボックス(motion thumbnail track box)のユーザーメタデータボックス(user meta data box)に設けられたモーションサムネイルトラックIDにより、メタ情報ファイルであることを確認する。また動画を特定する情報(ref stream)に基づいて、対応するビデオトラックボックス(video track box )が存在するか否か検出する。なおここで処理対象のAVファイルは、記録媒体33が装着されてこの図9に示す処理手順を実行する場合、又はユーザーによりAVファイルの一覧表示が指示されてこの図9に示す処理手順を実行する場合、記録媒体33に記録された動画ファイルであり、AVファイルの再生等が指示されてこの図9に示す処理手順を実行する場合、ユーザーにより再生等が指示されたAVファイルである。
このステップSP2で否定結果が得られると、この場合、処理対象のAVファイルがメタ情報ファイルを有していない同様のフォーマットによるファイルであることにより、中央処理ユニット41は、ステップSP2からステップSP3に移り、不整合処理を実行する。なお不整合処理については、後述する。
これに対してステップSP2で肯定結果が得られると、ステップSP2からステップSP4に移る。ここで中央処理ユニット41は、ビデオトラックボックス(video track box )のメディアヘッダ(media header box)の更新時間情報(modification time )とモーションサムネイルトラックボックス(motion thumbnail track box)のメディアヘッダ(media header box)の更新時間情報(modification time )とが一致するか否か判断する(図5参照)。ここで否定結果が得られると、この場合、処理対象のAVファイルのストリーミングデータが破壊編集処理されて、動画ファイルと代表画像とが不整合状態であると判断される。
これにより中央処理ユニット41は、ステップSP4で否定結果が得られると、ステップSP4からステップSP3に移り、不整合処理を実行する。これに対してステップSP4で肯定結果が得られると、ステップSP4からステップSP5に移る。なお不整合処理については、後述する。
このステップSP5において、中央処理ユニット41は、ビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)の更新時間情報(modification time )とモーションサムネイルトラックボックス(motion thumbnail track box)のトラックヘッダボックス(track header box)の更新時間情報(modification time )が一致するか否か判断する(図5参照)。ここで肯定結果が得られると、この場合、AVファイルは、モーションサムネイルトラックボックス(motion thumbnail track box)に対応困難な機器では編集処理されていないことにより、中央処理ユニット41は、ステップSP5からステップSP6に移ってこの処理手順を終了する。
これに対してステップSP5で否定結果が得られると、この場合、ビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)と同一階層以下のボックスが変更された場合であることにより、中央処理ユニット41は、ステップSP5からステップSP7に移り、ビデオトラックボックス(video track box )のエディットリストボックス(edit list box )の内容(edit list entry )とモーションサムネイルトラックボックス(motion thumbnail track box)のエディットリストボックス(edit list box )の内容(edit list entry )とが一致するか否か判断する。
ここで否定結果が得られると、この場合、現実的にはあまり行われていない非破壊編集によってエディットリストボックス(edit list box )の内容(edit list entry )が変更されたことにより、ビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)の更新時間情報(modification time )とモーションサムネイルトラックボックス(motion thumbnail track box)のトラックヘッダボックス(track header box)の更新時間情報(modification time )とが一致しなくなった場合であり、これにより中央処理ユニット41は、ステップSP7からステップSP3に移り、不整合処理を実行する。なお不整合処理については、後述する。
これに対してステップSP7で肯定結果が得られると、ステップSP7からステップSP6に移ってこの処理手順を終了する。なおここでステップSP7で肯定結果が得られて処理を完了する場合、ビデオトラックボックス(video track box )のトラックヘッダボックス(track header box)の更新時間情報(modification time )と一致するように、モーションサムネイルトラックボックス(motion thumbnail track box)のトラックヘッダボックス(track header box)の更新時間情報(modification time )を設定し直すようにしてもよい。
ここでステップSP3の不整合処理において、中央処理ユニット41は、LCD32にメッセージを表示してユーザーの確認を得た後、ストリーミングデータの編集処理に対応するように、メタ情報ファイルを作成、更新する。
具体的に、ステップSP2で否定結果が得られた場合である対応するモーションサムネイルトラックボックス(motion thumbnail track box )が設けられていない場合には、1GOP毎に、ストリーミングデータから代表画像の画像データを取得して記録媒体33に記録し、これにより代表画像による実データを記録媒体33に記録する。またこの代表画像の実データに対応するように、モーションサムネイルトラックボックス(motion thumbnail track box)を作成して記録媒体33に記録する。これらの処理により、中央処理ユニット41は、メタ情報ファイルを作成して記録媒体33に記録する。
これに対してステップSP4で否定結果が得られた場合である破壊編集によりストリーミングデータ自体が編集処理されている場合、ストリーミングデータから代表画像の画像データを作成し直し、記録媒体33に記録された代表画像の実データを更新する。またこれに対応するようにモーションサムネイルトラックボックス(motion thumbnail track box)を作成し直して記録媒体33に記録されたモーションサムネイルトラックボックス(motion thumbnail track box)を更新する。また図4を用いて説明したと同様に、ビデオトラックボックス(video track box )に対応するようにモーションサムネイルトラックボックス(motion thumbnail track box)の更新時間情報(modification time )を設定する。これによりこの場合、AVファイルに対応するようにメタ情報ファイルを更新する。なおこの場合、代表画像の画像データ、モーションサムネイルトラックボックス(motion thumbnail track box)を作成し直す代わりに、記録媒体33に記録された代表画像の画像データ、モーションサムネイルトラックボックス(motion thumbnail track box)の更新により一連の処理を実行するようにしてもよく、またモーションサムネイルトラックボックス(motion thumbnail track box)にエディットリストボックス(edit list box)を設けてストリーミングデータの編集処理に対応するように代表画像の画像データを編集処理してもよい。
これに対してステップSP7で否定結果が得られた場合である非破壊編集によってエディットリストボックス(edit list box )の内容(edit list entry )が変更されている場合、このエディットリストボックス(edit list box )の内容(edit list entry )に対応するように、モーションサムネイルトラックボックス(motion thumbnail track box)のエディットリストボックス(edit list box )の内容(edit list entry )を更新し、また図4を用いて説明したと同様に、ビデオトラックボックスに対応するようにモーションサムネイルトラックボックス(motion thumbnail track box)の更新時間情報(modification time )を設定する。なおこの場合、ステップSP4で否定結果が得られた場合と同様に、実データを編集処理してもよい。
(2)実施例の動作
以上の構成において、このビデオカメラ1では(図2)、動画による撮像結果がカメラ部2で取得され、この撮像結果がカメラDSP4により処理されてビデオデータが生成される。ビデオカメラ1では、このビデオデータからモニタ用のビデオデータが生成され、このモニタ用のビデオデータが制御部3に入力されてLCD32に撮像結果のモニタ画像が表示される。
この状態でユーザーが撮像結果の記録を指示すると、カメラDSP4の圧縮/解凍部24でビデオデータがデータ圧縮処理されてストリーミングデータが生成され、このストリーミングデータがオーディオデータと共に制御部3を介して記録媒体33に記録される。このときストリーミングデータ、オーディオデータは、時分割多重化処理されてメディアデータボックス(media data box)が作成され、このメディアデータボックス(media data box)が記録媒体33に記録される。またこの時分割多重化処理されたデータの管理情報である再生時間情報等がRAM42に蓄積され、ユーザーが記録の終了を指示すると、このRAM42に蓄積された管理情報が種別に応じた階層構造によりボックス化されてムービーボックス(movie box )が作成され、このムービーボックス(movie box )が記録媒体33に記録される。これによりビデオカメラ1では、撮像結果による動画ファイルが、AVファイルにより記録媒体33に記録される。
またこのようにしてストリーミングデータを記録しながら、ビデオカメラ1では、圧縮/解凍部24で、1GOP毎に、Iピクチャーに設定されたピクチャーの解像度が低減されてサムネイル画像が作成され、これにより代表画像が作成される。またこの代表画像の画像データが制御部3に出力されて保持され、またこの代表画像の再生を制御する制御情報の生成に必要な各種の情報が同様に保持される。ビデオカメラ1では、AVファイルの記録の完了により、制御部3で、この保持された代表画像の画像データからメディアデータボックス(media data box)が作成され、このメディアデータボックス(media data box)が記録媒体33に記録される。また制御部3に保持された各種の情報からメディアデータボックス(media data box)に記録された代表画像の再生を制御する制御情報が生成され、この制御情報が種別に応じた階層構造によりボックス化されてムービーボックス(movie box )が作成され、このムービーボックス(movie box )が記録媒体33に記録される。これによりビデオカメラ1では、撮像結果による動画ファイルを構成するフレーム画像の所定グループを代表する代表画像が、動画ファイルと別ファイルにより記録媒体33に記録される。
このビデオカメラ1では、1枚の代表画像の画像データが実データの最小再生単位である1サンプル(sample)に割り当てられてメディアデータボックス(media data box)が作成され、またこの最小再生単位で再生を制御できるように制御情報が設定されて、階層構造によりムービーボックス(movie box )が作成される。このビデオカメラ1では、このムービーボックス(movie box )に設けられたモーションサムネイルトラックボックス(motion thumbnail track box)の第1階層に、このモーションサムネイルトラックボックス(motion thumbnail track box)に格納した情報が、代表画像の再生を制御する制御情報であることを示す情報であるモーションサムネイルトラックID(motion thumbnail track ID )が割り当てられる。また第2階層であるメディアボックス(media box )に、動画ファイルの更新日時を示す情報が格納され、第3階層であるサンプルテーブルボックス(sample table box)に、1つの代表画像を最小再生単位として再生制御するための制御情報が格納される。
これによりこのビデオカメラ1では、このモーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)の記録に応じて、ビデオデータを再生する場合と同様に、1枚単位で代表画像を再生してユーザーに提供することができる。従ってビデオカメラ1では、所望する箇所の代表画像を簡易かつ迅速に再生して提供することができ、これにより代表画像を再生する際のランダムアクセス性を向上することができる。
またモーションサムネイルトラックボックス(motion thumbnail track box)に設けられたモーションサムネイルトラックID(motion thumbnail track ID )により、迅速に、メタ情報ファイルであることを把握することができる。これによりモーションサムネイルトラックボックス(motion thumbnail track box)に設けられた制御情報により、対応するビデオトラックを再生することができ、代表画像を用いてストリーミングデータを迅速に頭出しすることができる。
またメディアボックス(media box )に格納した動画ファイルの更新日時により、動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。またこれらの情報を階層的に記録して上位階層から順次、モーションサムネイルトラックID(motion thumbnail track ID )、動画ファイルの更新日時を示す情報、1つの代表画像を最小再生単位として再生制御するための情報を格納したことにより、AVファイルに関する種々の処理を迅速に開始することができる。すなわち例えばメタ情報ファィルの種別を判定する場合にあって、モーションサムネイルトラックID(motion thumbnail track ID )が記録されていない場合、さらに下位階層のメディアハンドラリファレンスボックス(media
handler reference box )に格納された実データの種別を判定しなければならなくなる。しかしながらモーションサムネイルトラックID(motion thumbnail track ID )によれば、モーションサムネイルトラックを第1階層まで解析するだけでメタ情報ファィルの種別を判定することができる。また、動画ファイルと代表画像との不整合についても、最大で第2階層まで解析するだけで検出することができる。従って不整合処理により確認が得られて、初めて最下位階層までモーションサムネイルトラックを解析すればよく、迅速代表画像の各種処理を実行することができる。
これらによりこの実施例では、代表画像を用いて頭出しできるようにビデオデータを記録して、この代表画像を再生する際のランダムアクセス性を向上し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
具体的に、このビデオカメラ1によるAVファイルにおいて、ストリーミングデータと代表画像との不整合が発生する場合は、専ら、モーションサムネイルトラックボックス(motion thumbnail track box)に対応困難な機器であって、ビデオトラックボックスとオーディオトラックボックスとを処理可能な機器によってこのAVファイルが編集処理された場合である。またこのような機器による編集処理では、実データを直接編集処理する破壊編集と、エディットリストボックス(edit list box )の設定による非破壊編集とがあり、このような機器で実データを直接編集処理した場合、ビデオトラックボックス(video track box )のトラックボックス(track box )に設けられたメディアヘッダボックス(media header box)の更新時間情報(modification time )と、このメディアヘッダボックス(media header box)の上位階層であるトラックヘッダボックス(track header box)の更新時間情報(modification time )とが更新される。これに対してエディットリストボックス(edit list box )を更新する非破壊編集処理では、ビデオトラックボックス(video track box )のエディットリストボックス(edit list box )と、トラックヘッダボックス(track header box)の更新時間情報(modification time )とが更新される。またこのような機器による編集処理では、モーションサムネイルトラックボックス(motion thumbnail track box)は、更新処理されないことになる。
このビデオカメラ1では、ビデオトラックボックス(video track box )については、作成日時、更新日時によりメディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )が設定される。またモーションサムネイルトラックボックス(motion thumbnail track box)のメディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )については、ビデオトラックボックス(video track box )のメディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )とそれぞれ同一に設定される。
これによりビデオトラックボックス(video track box )に設定された更新時間情報(modification time )とモーションサムネイルトラックボックス(motion thumbnail track box)に設定された更新時間情報(modification time )との不一致により、モーションサムネイルトラックボックス(motion thumbnail track box)を処理困難な機器によりAVファイルが編集処理された場合を検出して、ストリーミングデータと代表画像との不整合を簡易に検出することができる。
またこのような更新時間情報(modification time )の設定を異なる階層の複数階層で実行することにより、より具体的には、破壊編集時と非破壊編集時の双方によって変更されるトラックヘッダボックス(track header box)の更新時間情報(modification time
)と、破壊編集のみによって更新されるトラックヘッダボックス(track header box)より下位階層のメディアヘッダボックス(media header box)の更新時間情報(modification time )とで実行することから、この2つの階層の更新時間情報(modification time
)でそれぞれ不一致を検出することにより(図8)、破壊編集による不整合と非破壊編集による不整合とを簡易に識別することができ、これによりAVファイルの処理に要する時間を短くし、不整合時には整合を図る処理を迅速に実行することができる。
またビデオカメラ1では、このような更新時間情報(modification time )を設定するトラックヘッダボックス(track header box)と同一階層にユーザーが独自に定義可能なユーザーメタデータボックス(user meta data box)が設けられ、このユーザーメタデータボックス(user meta data box)に対応する動画を特定する情報(ref stream)が割り当てられる。この実施例では、対応するAVファイルのビデオトラックボックス(video
track box )のトラックID(track ID)がこの情報(ref stream)に割り当てられる。これによりメタ情報ファイルは、深い階層まで解析しなくても、モーションサムネイルトラックボックス(motion thumbnail track box)とビデオトラックボックス(video track box )との関係を把握して迅速に処理することができる。
またモーションサムネイルトラックボックス(motion thumbnail track box)は、このユーザーメタデータボックス(user meta data box)に、上述したモーションサムネイルトラック(motion thumbnail track)であることを示すモーションサムネイルトラックID(motion thumbnail track ID )が割り当てられる。これによりメタ情報ファイルは、深い階層まで解析しなくても、モーションサムネイルトラックボックス(motion thumbnail track box)を識別できるように設定される(図5)。
またこのユーザーメタデータボックス(user meta data box)のメタタイプボックス(meta type def box )には、メタデータボックス(mtdt)に記録されることが予定されるメタデータ以外の未定義のメタデータを記録する際、そのデータが何を表すものかを定義するための情報が割り当てられる。これによりメタ情報ファイルは、メタデータボックス(meta data box )及びメタタイプボックス(meta type def box )を同一階層である上位の階層に設定して、想定外のメタデータを割り当てた場合であっても、深い階層までを解析することなく迅速に解析して対応することができる。
またモーションサムネイルトラックボックス(motion thumbnail track box)には、各GOPのディスプレイオーダー(display order )の先頭ピクチャーから、代表画像を設定したピクチャーまでの再生時間の差分値であるオフセット時間情報(time offset )についても、トラックヘッダボックス(track header box)と同一階層のエディットリストボックス(edit list box )に設定される。これによりメタ情報ファイルは、ユーザーが選択した代表画像により、対応するGOPの先頭を正しく頭出しするようにして、深い階層まで解析しなくてもこの正しい頭出しに必要なオフセット時間情報(time offset )を検出することができ、これによってもAVファイルを迅速に処理することが可能となる。
これに対してこのようにして記録媒体33に記録したAVファイルのフィルムロール再生をユーザーが指示すると、ビデオカメラ1は、モーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)の記録に従って、連続する所定枚数の代表画像が記録媒体33から再生され、この代表画像が並べられてLCD32に表示される(図7)。
またこの代表画像の表示の下側に表示したスクロールバーB1をユーザーが操作すると、モーションサムネイルトラックボックス(motion thumbnail track box)のサンプルテーブルボックス(sample table box)の記録に従って、現在表示中の代表画像に続く代表画像が記録媒体33から再生され、この再生された代表画像によってLCD32の表示が切り替えられる。これによりこのビデオカメラ1では、モーションサムネイルトラックボックス(motion thumbnail track box)の記録に従って代表画像データを再生して、代表画像についてのランダムアクセス性を向上することができる。
またこのようにして代表画像の表示を切り換えてユーザーが代表画像を選択すると、このユーザーの選択した代表画像の再生時間情報により、対応するストリーミングデータが再生されてデータ伸長処理され、このデータ伸長されて表示の順序により並べ直されたビデオデータの先頭ピクチャーから、エディットリストボックス(edit list box )に設定されたオフセット時間情報(time offset )の分だけ時間経過したピクチャーの画像がウインドウB2に表示される。これにより代表画像で頭出しした後、この頭出しした箇所からストリーミングデータを再生することができる。
またビデオカメラ1では、代表画像の一覧表示において編集点の設定を受け付けてAVファイルが編集処理される。すなわちこのビデオカメラ1では、このようにしてユーザーにより代表画像が選択されて、編集点の設定が受け付けられ、さらにユーザーによる指示により、この編集点の設定に対応するように、ストリーミングデータの実データが編集処理され、これに対応するようにビデオトラックボックス(video track box )の記録が更新される。またこのストリーミングデータの編集処理に対応するように、代表画像による実データが編集処理され、これに対応するようにモーションサムネイルトラックボックス(motion thumbnail track box )が更新処理され、メタ情報ファイルが更新される。
この編集処理の場合でも、このビデオカメラ1では、ビデオトラックボックス(video
track box )については、メディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )がこの編集処理を実行した更新日時に設定され、モーションサムネイルトラックボックス(motion thumbnail track box)のメディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )については、ビデオトラックボックスのメディアヘッダボックス(media header box)の更新時間情報(modification time )、トラックヘッダボックス(track header box)の更新時間情報(modification time )と同一に設定される。これによりストリーミングデータと代表画像との不整合を簡易かつ迅速に検出することができるように設定される。
すなわちこのビデオカメラ1では、上述のフィルムロール再生をユーザーが指示した場合、記録媒体33が装填された場合等において、処理対象のAVファイルに対応するメタ情報ファイルが検索され、またさらにメタ情報ファイルが見つかると、AVファイルのビデオトラックボックス(video track box )と、メタ情報ファイルのモーションサムネイルトラックボックス(motion thumbnail track box)との間で、メディアヘッダボックス(media header box)の更新時間情報(modification time )が一致するか否か判定され、これにより実データの編集処理によってストリーミングデータと代表画像の画像データとが不整合となっている状態が検出される(図8)。
また続いてビデオトラックボックス(video track box )とモーションサムネイルトラックボックス(motion thumbnail track box)との間で、トラックヘッダボックス(track header box)の更新時間情報(modification time )が一致するか否か判定され、これによりエディットリストボックス(edit list box )の編集処理によりストリーミングデータと代表画像の画像データとが不整合となっている状態が、このトラックヘッダボックス(track header box)と同一階層のエディットリストボックス(edit list box )以外のボックスが更新処理された場合と一緒に検出される。
また続いてエディットリストボックス(edit list box )の内容が一致するか否か判定され、これによりエディットリストボックス(edit list box )の編集処理によりストリーミングデータと代表画像とが不整合となっている状態が検出される。
またこのようにして不整合の状態が検出されると、ユーザーによる指示により、ストリーミングデータに対応するようにメタ情報ファイルのメディアデータボックスが作成されて更新され、又はこれに対応するようにメタ情報ファイルのモーションサムネイルトラックボックス(motion thumbnail track box)が更新され、これにより動画ファイルと代表画像とが不整合となっている状態が解消される。
(3)実施例の効果
以上の構成によれば、代表画像を代表画像格納部に格納すると共に、格納した情報が代表画像の制御情報であることを示す情報、動画ファイルの更新日時を示す情報、1つの代表画像を最小再生単位とした制御情報を順次階層的に制御情報格納部に格納することにより、代表画像を再生する際のランダムアクセス性を向上し、さらには動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
またさらに動画ファイルの更新日時に関する情報(modification time )を、別途、第一階層に記録することにより、動画ファイルの非破壊編集と破壊編集と対応して、動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
より具体的には、破壊編集時と非破壊編集時の双方によって変更されるトラックヘッダボックス(track header box)の更新時間情報(modification time )と、破壊編集のみによって更新されるトラックヘッダボックス(track header box)より下位階層のメディアヘッダボックス(media header box)の更新時間情報(modification time )とを設けるようにして、ビデオデータ側の更新時間情報と一致するように代表画像側の更新時間情報を設定することにより、動画ファイルと代表画像との不整合を簡易かつ確実に検出することができる。
また代表画像ファイルであるメタ情報ファイルのファイル名を、動画ファイルの拡張子を除くファイル名と同一に設定することにより、簡易かつ確実に、メタ情報ファイルを検出することができる。
また1枚の代表画像に対応する複数ピクチャーのうちのデータ圧縮順序の先頭ピクチャーであるIピクチャーから代表画像を作成するようにして、これら複数ピクチャーの再生順序の先頭ピクチャーからこの代表画像を作成したピクチャーまでのオフセット時間情報を記録することにより、代表画像に対応するピクチャーを正しく頭出しすることができる。
図10は、図1との対比により本発明の実施例2に係るビデオカメラで生成されるAVファイルを示す略線図である。この実施例において、AVファイルは、ストリーミングデータと代表画像の画像データとを一体化して形成される。すなわちAVファイルは、実施例1について上述したAVファイルと同様に、オーディオデータの実データをまとめてブロック化したメディアデータボックス(media data box)と、これらの実データの再生を制御する制御情報をまとめてブロック化したムービーボックス(movie box )とが形成される。
ここでメディアデータボックス(media data box)は、実施例1について上述したと同一に、ストリーミングデータ、代表画像、オーディオデータの1サンプル(sample)が設定される。またこれらストリーミングデータ、代表画像、オーディオデータによるチャンク(chunk )の連続により形成される。
これに対してムービーボックス(movie box )は、実施例1について上述したビデオトラックボックス、オーディオトラックボックスに、モーションサムネイルトラックボックスを追加して作成される。またモーションサムネイルトラックボックスは、後述するユーザーメタデータボックスが異なる点を除いて、実施例1について上述したメタ情報ファイルと同一に構成される。
ここで図4との対比により図11に示すように、AVファイルは、矢印a及びcにより示すように、実施例1について上述したビデオトラックボックス(video track box )、モーションサムネイルトラックボックス(motion thumbnail track box)と同一に、ビデオトラックボックス(video track box )の作成時間情報(creation time )、更新時間情報(modification time )が、モーションサムネイルトラックボックス(motion thumbnail track box)における作成時間情報(creation time )、更新時間情報(modification time )に設定される。
れに対してビデオトラックボックス(video track box )との対応関係については、モーションサムネイルトラックボックス(motion thumbnail track box)の動画を特定する情報(ref stream)に代えて、モーションサムネイルトラックボックス(motion thumbnail track box)のトラックリファレンスボックス(track reference box )に、対応するビデオトラックボックスのトラックIDが設定され、これによりモーションサムネイルトラックボックス(motion thumbnail track box)とビデオトラックボックス(video track box )との対応関係が記録される。なおこれによりこの実施例における動画ファイルと代表画像の不整合を検出する処理では、このトラックリファレンスボックス(track reference box )の記録に従って対応するビデオトラックボックス(video track box )が存在するか否か判定する。
ここで図6との対比により図12に示すように、ユーザーメタデータボックス(user meta data box)は、実施例1と同一に、メタデータボックス(meta data box )と、メタタイプボックス(meta type def box )とにより構成され、メタタイプボックス(meta type def box)は、実施例1と同一に構成される。
これに対してメタデータボックス(meta data box )には、動画を特定する情報(ref
stream)が省略されて、モーションサムネイルトラック(motion thumbnail track)であることを示すモーションサムネイルトラックID(motion thumbnail track ID )だけが設けられる。
この実施例によれば、代表画像の画像データ、管理情報を、ストリーミングデータと一体のファイル構造により記録するようにしても、実施例1と同様の効果を得ることができる。
図13は、図6との対比により本発明の実施例3に係るAVファイルの代表画像の設定を示す略線図である。この実施例では、再生順序の先頭ピクチャーから代表画像を作成する。すなわちこの実施例では、図13(B)に示すように、クローズドGOPにより、連続するピクチャーを順次BピクチャーB0、B1、IピクチャーIDR2、BピクチャーB3、B4、PピクチャーP5、……に設定して、これらのピクチャーを符号化の順序により並べ替えて符号化処理し、ストリーミングデータを生成する。
この実施例では、この符号化の際に並べ直す前の、このGOPの再生順序の先頭ピクチャーであるBピクチャーB0の解像度を低減して代表画像の画像データを生成する。これによりこの場合、1GOP分のストリーミングデータをデータ伸長した場合に、最初に再生されるピクチャーが、この代表画像に対応するBピクチャーB0となる。これによりこの実施例では、実施例1について上述したオフセット時間情報の記録が省略され、ユーザーにより代表画像が選択されると、対応するGOPをデータ伸長して得られる先頭ピクチャーがユーザーに提供される。
この実施例のビデオカメラは、この代表画像に係る構成が異なる点を除いて、実施例1、2について上述したビデオカメラと同一に構成される。
この実施例によれば、1枚の代表画像に対応する複数ピクチャーのうちの再生順序の先頭ピクチャーから代表画像を作成することにより、実施例1に比して簡易な処理により代表画像に対応するピクチャーを正しく頭出しすることができる。
この実施例では、AVファイルとは別にメタ情報ファイルを作成するようにして、実施例1について上述したISO/IEC14496の規定によるフォーマットに代えて、他のファイルフォーマットによりこのAVファイルを記録する。すなわちAVファイルには、他のファイルフォーマットを適用するようにしてもよく、この実施例では、この他のファイルフォーマットに、MPEG2トランスポートストリームのファイルフォーマットを適用する。なおこの実施例は、このAVファイルのファイルフォーマットが異なる点と、これと関連する構成を除いて、実施例1と同一に構成されることにより、実施例1について上述した構成を流用して説明する。
このためこの実施例において、中央処理ユニット41は、ビデオデータ及びオーディオデータによるストリーミングデータを多重化してMPEG2トランスポートストリームを作成しながら、このMPEG2トランスポートストリームを記録媒体33に記録する。またユーザーによる記録の停止の指示により、記録媒体33へのAVファイルの記録を完了し、続いてメタ情報ファイルを記録媒体33に記録する。
ここでメタ情報ファイルは、実施例1について上述したと同様に、制御情報を階層的に格納して形成される。またMPEG2トランスポートストリーム等他のファイルフォーマットでは、トラックボックスの概念が無いことにより、メタ情報ファイルのトラックヘッダボックス(track header box)及びメディアヘッダボックス(media header box)にそれぞれ設けられる作成時間情報(creation time )及び更新時間情報(modification time)には、AVファイルを管理する記録媒体33のファイル管理システムにおけるAVファイルの作成時間情報及び更新時間情報がそれぞれ記録される。
またさらに、動画を特定する情報(ref stream)には、AVファイルにおいてビデオデータのパケットを特定するPID(Program ID)が割り当てられる。なおPID(Program ID)に代えて、他の識別データを割り当てるようにしてもよい。
これにより中央処理ユニット41は、図9との対比により図14の処理手順を実行して動画ファイルと代表画像の不整合を検出する。すなわち中央処理ユニット41は、実施例1について上述したと同様にしてこの図14に示す処理手順を開始すると、ステップSP11からステップSP12に移る。ここで中央処理ユニット41は、処理対象のAVファイルのファイル名に基づいて、対応するメタ情報ファイルを検索する。またメタ情報ファイルが見つかるとモーションサムネイルトラックIDを判定し、これらによりモーションサムネイルトラックボックス(motion thumbnail track box)の有無を検出する。またモーションサムネイルトラックボックス(motion thumbnail track box)を検出すると、このモーションサムネイルトラックボックス(motion thumbnail track box)のユーザーメタデータボックス(user meta data box)に設けられた動画を特定する情報(ref stream)に基づいて、対応するビデオデータが存在するか否か検出する。
このステップSP12で否定結果が得られると、この場合、AVファイルは、メタ情報ファイルを有していない同様のフォーマットによるファイルであることにより、中央処理ユニット41は、ステップSP12からステップSP13に移り、不整合処理を実行する。なお不整合処理については、後述する。
これに対してステップSP12で肯定結果が得られると、ステップSP12からステップSP14に移る。ここで中央処理ユニット41は、AVファイルを管理するファイル管理システムからAVファイルの更新時間を検出し、この更新時間が、モーションサムネイルトラックボックス(motion thumbnail track box)のメディアヘッダボックス(media
header box)の更新時間情報(modification time )と一致するか否か判断する。なお、AVファイルの更新日時がAVファイルに直接記述されている場合には、AVファイルに記述されている他の情報を利用してもよい。ここで否定結果が得られると、この場合、処理対象のAVファイルが編集処理されて、動画ファイルと代表画像とが不整合状態であると判断される。
これにより中央処理ユニット41は、ステップSP14で否定結果が得られると、ステップSP14からステップSP13に移り、不整合処理を実行する。なお不整合処理については、後述する。ここでMPEG2トランスポートストリームでは、編集リスト(edit list )の概念が無く、編集処理は、専ら破壊編集処理である。これにより中央処理ユニット41は、ステップSP14で肯定結果が得られると、ステップSP14からステップSP15に移り、この処理手順を終了する。
中央処理ユニット41は、ステップSP13の不整合処理において、ステップSP12で否定結果が得られた場合には、AVファイルを解析してメタ情報ファイルを新たに作成し、このメタ情報ファイルを記録媒体33に記録し、ステップSP15に移ってこの処理手順を終了する。これに対してステップSP14で否定結果が得られた場合には、AVファイルを解析してメタ情報ファイルを作成し直し、このメタ情報ファイルを記録媒体33に記録し直し、ステップSP15に移ってこの処理手順を終了する。
この実施例によれは、MPEG2トランスポートストリーム等の他のフォーマットによりAVファイルを記録する場合でも、実施例1と同一の効果を得ることができる。
図15は、本発明の実施例5に係るビデオカメラにおける代表画像の生成の説明に供する略線図である。なおこの実施例では、この代表画像の生成に関連する構成が異なる点を除いて、実施例1のビデオカメラと同一に構成されることにより、以下の説明では、実施例1の図面を流用して説明し、また重複した説明は省略する。
この実施例において、圧縮/解凍部24は(図2)、ストリーミングデータ(図15(A))を生成する際に、所定ピクチャーの解像度を低減してサムネイル画像の画像データを生成する。またこのサムネイル画像の画像データをJPEG(Joint Photographic Coding Experts Group )フォーマットで符号化処理して代表画像の画像データ(図15(B))を生成する。このとき圧縮/解凍部24は、1つの代表画像のデータサイズが一定データサイズとなるように、代表画像の画像データを生成する。
具体的に、圧縮/解凍部24は(図2)、符号化処理により生成されたデータの末尾を示すEOI(End Of Image)に続いて、例えば値0のパディングデータを配置することにより、1つの代表画像のデータサイズが例えば4〔MB〕の一定サイズとなるように設定する。なおここでSOIは、Start Of Imageである。
制御部3は、この一定データ量による1つの代表画像を1サンプルに設定してメタ情報ファイルを作成する(図15(C))。従って制御部3は、メタ情報ファイルのサンプルサイズボックス(sample size box )に、この一定データ量を記述することになるが、IOS14496に準拠したファイルフォーマットの場合、同一のサンプルサイズボックス(sample size box )については記述を省略することができる。これにより制御部3は、先頭代表画像についてのみ、サンプルサイズボックス(sample size box )を記述し、以降の代表画像については、サンプルサイズボックス(sample size box )の記述を省略し、メタ情報ファイルのデータ量を低減する。
このメタ情報ファイルにおけるサンプルサイズボックス(sample size box )の設定に対応して、再生時、制御部3は、下位階層のサンプルサイズボックス(sample size box)を読み出すことなく、この一定のデータ量に基づいて各代表画像の記録位置を特定して代表画像を記録媒体から再生する。
この実施例によれば、代表画像をデータ圧縮して一定データ量でメタ情報ファイルに格納することにより、メタ情報ファイルのデータ量を低減するようにして、実施例1と同一の効果を得ることができる。また再生時、記録媒体へのアクセス速度を向上することができる。
図16は、本発明の実施例6に係るビデオカメラにおける代表画像の処理の説明に供する略線図である。なおこの実施例では、以下に説明する代表画像の処理に関する構成が異なる点を除いて、実施例1、実施例5のビデオカメラと同一に構成されることにより、以下の説明では、実施例1の図面を流用して説明し、また重複した説明は省略する。
ここでこの実施例のビデオカメラにおいて、圧縮/解凍部24は、順次循環的にピクチャータイプを設定してGOPを設定し、ビデオストリームを符号化処理する。また制御部3の制御に従ってユーザーによる動作モードの設定によりGOP構造を切り換える。具体的に例えばユーザーが高画質モードを選択した場合、圧縮/解凍部24は、オープンGOPでビデオストリームを生成するのに対し、ユーザーがノーマルモードを選択した場合、クローズドGOPでビデオストリームを生成する。なお予め決められた周期でオープンまたはクローズドGOPでビデオストリームが生成されてもよい。ここでオープンGOPは、GOP内におけるピクチャーの参照ピクチャーの一部が、直前のGOPに存在するGOP構造であり、一般にクローズドGOPに比して画質が良い特徴がある。これに対してクローズドGOPは、1つのGOP内のピクチャーにおける参照ピクチャーが、当該GOP内に存在するGOP構造である。
また圧縮/解凍部24は、1つ又は複数のGOP毎に、サムネイル画像データを作成して代表画像の画像データを生成する。また代表画像の画像データをJPEGのフォーマットでデータ圧縮して制御部3に出力する。このとき圧縮/解凍部24は、対応するGOPがオープンGOPの場合とクローズドGOPの場合とで、同一の解像度でサムネイル画像を作成する。また対応するGOPがクローズドGOPの場合、オープンGOPの場合に比して高画質にデータ圧縮する。従ってオープンGOPの代表画像は、クローズドGOPの場合に比して、データ量が多くなるように符号化処理される。
このとき図16(A)及び(B)に示すように、圧縮/解凍部24は、ビデオストリームのGOPの種類に応じて、代表画像を作成するピクチャーを切り換える。具体的に、ビデオストリームがクローズドGOPの場合、対応する1つ又は複数のGOPを構成するピクチャーの中から、表示順序で先頭のピクチャーから代表画像を生成する。これに対してビデオストリームがオープンGOPの場合、対応する1つ又は複数のGOPを構成するピクチャーの中から、表示順序で先頭のIピクチャーから代表画像を生成する。
これにより図16に示すように、制御部3は、GOP構造が途中で切り換えられて繋ぎ取り録画によりビデオストリームを記録する場合には、このGOP構造の切り換えに応動して代表画像を生成するピクチャーを切り換える。これによりこのビデオカメラでは、フィルムロール再生する場合、代表画像を基準にしてビデオストリームを編集処理し、編集処理結果を他の機器で再生する場合、代表画像とビデオストリームとの整合性を乱さないようにする。
従ってこの図16の例では、先頭の代表画像データJPEG1は、先頭のクローズドGOPの先頭ピクチャーであるIピクチャーIDRから作成され、続く代表画像データJPEG2は、続くオープンGOPの先頭IピクチャーI2から作成される。また続く代表画像データJPEG3は、続くクローズドGOPの先頭ピクチャーであるBピクチャーB0から作成され、続く代表画像データJPEG4は、続くオープンGOPの先頭IピクチャーI2から作成される。
また制御部3は、各代表画像のデユレーション(duration )に、代表画像を作成したピクチャーの再生を開始して、続く代表画像を作成したピクチャーの再生を開始するまでの、ビデオストリーム上における再生時間を割り当て、このデユレーション(duration )を各代表画像のサンプルテーブルボックス(sample table box)に記録する。従ってこの場合、制御部3は、各代表画像のサンプル時間長を対応するビデオストリームの再生時間長によりメタ情報ファイルに記録する。
なおこの実施例では、他の機器でAVファイルを記録した記録媒体33が装着されて、ユーザーがメタ情報ファイルの作成を指示した場合にも、同様にしてGOPの種類によって代用画像を作成するピクチャーを切り換えて、メタ情報ファイルを作成する。
これにより図17に示すように、このビデオカメラは、撮影時、順次得られる連続するピクチャーP1、P2、……による動画像から矢印Aにより示すようにAVファイルを作成して記録媒体33に記録する。また矢印Bにより示すように、連続するピクチャーP1、P2、……からピクチャーを選択して代表画像の画像データJPEGを作成し、この代表画像の画像データJPEGを各種の情報と共にメディアデータボックス(media data box)、ムービーボックス(movie box )にそれぞれ格納してメタ情報ファイルを作成する。
また制御部3は、ユーザーによりフィルムロール再生が指示されると、図8について上述したと同様にして、矢印Cにより示すように、メタ情報ファイルから代表画像の画像データJPEGを再生して表示し、また矢印Dにより示すように、対応するビデオストリームを再生して表示する。このときユーザーが何れかの代表画像を選択すると、矢印E及びFにより示すように、この代表画像のサンプルテーブルボックス(sample table box)の記録から、対応するビデオストリームにおける再生位置を検出し、ビデオストリームの再生位置を切り換えて表示を切り換える。
このとき制御部3は、メタ情報ファイルのエディットリストボックス(edit list box)に格納されたタイムオフセットを使用しないで、デユレーション(duration )に記録された再生時間を、先頭代表画像からユーザーが選択した代表画像の直前代表画像まで積算した積算時間を計算し、この積算時間による再生時間情報を用いてビデオストリームの再生開始位置を特定してビデオストリームを再生する。これにより制御部3は、代表画像を種々にユーザーが選択した場合でも、簡易かつ迅速にビデオストリームの再生、表示を切り換える。
また制御部3は、このように代表画像に基づいてビデオストリームの再生、表示を切り換えて、ユーザーが代表画像を指定して編集点の設定を指示すると、ユーザーが指定した代表画像に対応するようにビデオストリームに編集点を設定する。また制御部3は、このようにして設定した編集点によりビデオストリームの編集処理が指示されると、GOP単位でビデオストリームを処理して編集結果のAVファイルを作成する。なおここでこの場合、編集点の設定に応じてビデオストリームを部分的に再生して外部機器に出力するようにして、外部機器を用いて編集処理するようにしてもよい。これにより制御部3は、AVファイルを破壊編集処理する。
この場合も制御部3は、イン点側については、代表画像のユーザーの選択によりビデオストリームを再生する場合と同様に、先頭代表画像からユーザーの選択した代表画像の直前の代表画像までの、デユレーション(duration )に記録された時間の積算時間をビデオストリームの再生側に渡すことにより、ユーザーが指定した代表画像に対応するピクチャーから再生を開始するように設定する。
すなわち図18に示すように、ユーザーが符号JPEG3の代表画像を選択してイン点に設定した場合であって、この代表画像の対応するGOPがクローズドGOPの場合、制御部3は、直前の2つの代表画像JPEG1、JPEG2のデユレーション(duration )を積算して、代表画像JPEG3に対応するBピクチャーB0の再生開始位置を検出する。またこの場合、対応するGOPがクローズドGOPであることから、この積算した時間情報により、矢印Gで示すように、対応するGOPの先頭ピクチャーであるBピクチャーB0からビデオストリームを切り出して編集結果のAVファイルを作成する。ここでGOP単位で破壊編集を行う場合は、GOPの復号順序(decoding order)で先頭のI又はIDRピクチャーが編集点となる。従ってユーザが指示した代表画像がI又はIDRピクチャーから生成されたもの場合、この代表画像の対応するピクチャーは復号順序(decoding order)の先頭であることから、復号順序(decoding order)で先頭の位置で分離される。これに対してユーザが指示した代表画像がBピクチャーから生成されたもの場合は、このBピクチャーが参照しているIDRピクチャーで復号順序(decoding order)の先頭の位置のピクチャから分離される。よって、この場合は復号順序(decoding order)で先頭のIDR2から分離される。従ってこの図18の例では、ユーザーの指定した代表画像に対応するピクチャーB0から再生可能に、編集結果のAVファイルを作成することができる。
これに対して図19に示すように、ユーザーが符号JPEG2の代表画像を選択してイン点に設定した場合であって、この代表画像の対応するGOPがオープンGOPの場合、制御部3は、直前の代表画像JPEG1のデユレーション(duration )により、代表画像JPEG2に対応するIピクチャーI2の再生開始位置を検出する。またこの場合、対応するGOPがオープンGOPであることから、この積算した時間情報に基づいて、矢印Hで示すように、対応するGOPの先頭ピクチャーであるBピクチャーB0からビデオストリームを切り出して編集結果のAVファイルを作成する。なお、GOP単位で破壊編集が行われる場合、オープンGOPの構造は図15のIDR2をI2に変えたものとなり、I2はdecoding orderで先頭であるので、同様にI2から分離される。ここでこの場合、切り出した先頭2つのBピクチャーB0、B1は、参照ピクチャーが、切り出す前の直前GOPであることから、切り出した後は、デコードされないことになる。従ってこの場合も、ユーザーの指定した代表画像に対応するピクチャーI2から再生可能に、編集結果のAVファイルを作成することができる。非破壊編集されたファイルを他機で再生する場合も同様である。
なおアウト点側については、ユーザーが指定した代表画像を作成したピクチャーを含むGOPが末尾のGOPとなるようにビデオストリームを切り出してAVファイルを作成する。なおこの実施例のビデオカメラは、一旦、撮像結果をAVファイルとして記録した後、ユーザーの指示によりメタ情報ファイルを作成し、さらには編集処理する場合もある。この場合も、このビデオカメラは、上述した同様にして動画ファイルのGOPの種類に応じて、代表画像を作成するピクチャーを切り換える。なおこの場合に、ビデオストリームを構成するGOPがオープンGOPかクローズドGOPかの判断は、ビデオストリームのコーデックがMPEG2の場合、GOP毎にGOPの構造を示すフラグがビデオストリーム中に存在することから、記録時にクローズドGOPで記録する場合はこのフラグを1にセットし、メタ情報ファイルの作成時、このフラグを判定して実行する。またビデオストリームのコーデックがMPEG(Moving Picture Experts Group)−4AVC(Advanced Video Coding)の場合、GOP毎に、プロファイル、符号化モードなどを記録したSequence Parameter Set NAL Unitを記録し、再生時、Sequence Parameter Set NAL Unitを検出し、そのGOPの先頭のピクチャがIDR-I Pictureの場合は、クローズドGOPと判断し、先頭ピクチャがIDRでないI Pictureの場合はオープンGOPと判断する。
この実施例によれば、代表画像の対応する動画ファイルのGOPの種類に応じて、代表画像を作成するピクチャーを切り換えることにより、より具体的には、対応する動画ファイルのGOPがクローズドGOPの場合、表示順序の先頭ピクチャーから代表画像を作成し、対応する動画ファイルのGOPがオープンGOPの場合、先頭のIピクチャーから代表画像を作成することにより、フィルムロール再生する場合、代表画像を基準にしてビデオストリームを編集処理し、編集処理結果を他の機器で再生する場合、代表画像とビデオストリームとの整合性を乱さないようにすることができる。
なお上述の実施例においては、ビデオデータをデータ圧縮してAVファイルを作成する場合について述べたが、本発明はこれに限らず、何らデータ圧縮処理していないビデオデータによりAVファイルを作成する場合等にも広く適用することができる。
また上述の実施例においては、本発明をビデオカメラに適用する場合について述べたが、本発明はこれに限らず、種々の映像機器に広く適用することができる。
本発明は、記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体に関し、例えばビデオカメラに適用することができる。
本発明の実施例1に係るビデオカメラに適用されるAVファイルを示す図表である。 本発明の実施例1に係るビデオカメラを示すブロック図である。 図1のAVファイルをさらに詳細に示す図表である。 図2のAVファイルとメタ情報ファイルとの関係を示す図表である。 図2のビデオカメラによるメタ情報ファイルを示す図表である。 図5のメタ情報ファイルにおけるユーザーメタデータボックスを示す図表である。 図3のAVファイルにおける代表画像の説明に供するタイムチャートである。 フィルムロール再生の説明に供する平面図である。 再生開始時等における中央処理ユニットの処理手順を示すフローチャートである。 本発明の実施例2に係るビデオカメラに適用されるAVファイルを示す図表である。 図10のAVファイルにおけるビデオトラックボックスとモーションサムネイルトラックとの関係を示す図表である。 図10のAVファイルにおけるユーザーメタデータボックスを示す図表である。 図10のAVファイルにおける代表画像の説明に供するタイムチャートである。 本発明の実施例4に係るビデオカメラの中央処理ユニットの処理手順を示すフローチャートである。 本発明の実施例5に係るビデオカメラにおける代表画像の説明に供する略線図である。 本発明の実施例6に係るビデオカメラにおける代表画像の処理の説明に供する略線図である。 図16の代表画像を用いたフィルムロール再生を示す略線図である。 図16の代表画像を使用した編集処理の説明に供する略線図である。 対応ピクチャーがオープンGOPの場合の処理を示す略線図である。
符号の説明
1……ビデオカメラ、2……カメラ部、3……制御部、4……カメラDSP、24……圧縮/解凍部、33……記録媒体、41……中央処理ユニット



Claims (14)

  1. 動画を動画ファイルとして記録媒体に記録する動画記録制御手段と、
    前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成手段と、
    前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御手段とを備え、
    前記代表画像記録制御手段は、
    前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する
    ことを特徴とする記録装置。
  2. 前記代表画像記録制御手段は、
    前記第1階層である同一階層に、前記動画を特定する情報を格納する
    ことを特徴とする請求項1に記載の記録装置。
  3. 前記代表画像記録制御手段は、
    前記動画ファイルの更新日時の情報を、前記制御情報格納部における前記第2階層とは異なる階層にさらに記録する
    ことを特徴とする請求項1に記載の記録装置。
  4. 前記代表画像記録制御手段は、
    前記代表画像ファイルの拡張子を除くファイル名を前記動画ファイルの拡張子を除くファイル名と同一に設定する
    ことを特徴とする請求項1に記載の記録装置。
  5. 代表画像記録制御手段は、
    前記代表画像をデータ圧縮して一定のデータサイズで前記代表画像格納部に格納する
    ことを特徴とする請求項1に記載の記録装置。
  6. 前記所定のグループは、
    1又は複数のGOPであり、
    前記代表画像生成手段は、
    前記代表画像の対応する前記動画ファイルのGOPの種類に応じて、前記代表画像を作成するピクチャーを切り換える
    ことを特徴とする請求項1に記載の記録装置。
  7. 前記ピクチャーの切り換えが、
    前記対応する前記動画ファイルのGOPがクローズドGOPの場合、表示順序の先頭ピクチャーであり、
    前記対応する前記動画ファイルのGOPがオープンGOPの場合、先頭のIピクチャーである
    ことを特徴とする請求項6に記載の記録装置。
  8. 動画を動画ファイルとして記録媒体に記録する動画記録制御のステップと、
    前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、
    前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、
    前記代表画像記録制御のステップは、
    前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する
    ことを特徴とする記録方法。
  9. 演算処理手段の実行により動画を記録媒体に記録する記録方法のプログラムにおいて、
    前記動画を動画ファイルとして前記記録媒体に記録する動画記録制御のステップと、
    前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、
    前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、
    前記代表画像記録制御のステップは、
    前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための情報を格納する
    ことを特徴とする記録方法のプログラム。
  10. 演算処理手段の実行により動画を記録媒体に記録する記録方法のプログラムを記録した記録媒体において、
    前記記録方法のプログラムは、
    前記動画を動画ファイルとして前記記録媒体に記録する動画記録制御のステップと、
    前記動画を構成するフレーム画像の所定グループを代表する代表画像を生成する代表画像生成のステップと、
    前記代表画像を代表画像ファイルとして前記記録媒体に記録する代表画像記録制御のステップとを備え、
    前記代表画像記録制御のステップは、
    前記代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有するファイル構造により前記代表画像ファイルを作成し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納する
    ことを特徴とする記録方法のプログラムを記録した記録媒体。
  11. 記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生装置であって、
    前記代表画像ファイルは、
    前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、
    前記再生装置は、
    前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生部と、
    前記データ再生部で再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示部と、
    前記データ再生部で再生されたデータを処理して、前記表示部の表示を制御する制御部とを備え、
    前記制御部は、
    前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示部で一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、
    該一覧表示した代表画像の選択を受け付け、
    前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示部で表示する
    ことを特徴とする再生装置。
  12. 記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法であって、
    前記代表画像ファイルは、
    前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、
    前記再生方法は、
    前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、
    前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、
    前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、
    前記制御のステップは、
    前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、
    該一覧表示した代表画像の選択を受け付け、
    前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する
    ことを特徴とする再生方法。
  13. 演算処理手段の実行により記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法のプログラムであって、
    前記代表画像ファイルは、
    前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、
    前記再生方法は、
    前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、
    前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、
    前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、
    前記制御のステップは、
    前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、
    該一覧表示した代表画像の選択を受け付け、
    前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する
    ことを特徴とする再生方法のプログラム。
  14. 演算処理手段の実行により記録媒体に記録された動画ファイルと代表画像ファイルとを再生する再生方法のプログラムを記録した記録媒体であって、
    前記代表画像ファイルは、
    前記動画ファイルを構成するフレーム画像の所定グループを代表する代表画像を格納する代表画像格納部と、前記代表画像格納部に格納した前記代表画像の再生を制御する制御情報を、前記制御情報の種別に応じて階層的に格納する制御情報格納部とを有し、
    前記制御情報格納部の第1階層に、前記制御情報格納部に格納した情報が、前記代表画像を制御する制御情報であることを示す情報を格納し、
    前記第1階層より下位階層である第2階層に、前記動画ファイルの更新日時を示す情報を格納し、
    前記第2階層より下位階層である第3階層に、1つの前記代表画像を最小再生単位として再生制御するための前記制御情報を格納し、
    前記再生方法は、
    前記記録媒体に記録された前記動画ファイル、前記代表画像ファイルを再生するデータ再生のステップと、
    前記データ再生のステップで再生された前記動画ファイルの動画、前記代表画像ファイルの代表画像を表示する表示のステップと、
    前記データ再生のステップで再生されたデータを処理して、前記表示のステップの表示を制御する制御のステップとを備え、
    前記制御のステップは、
    前記代表画像の制御情報に基づいて、前記記録媒体に記録された複数枚の前記代表画像を前記表示のステップで一覧表示すると共に、ユーザーの操作に応動して、前記一覧表示の代表画像を切り換え、
    該一覧表示した代表画像の選択を受け付け、
    前記代表画像の制御情報に基づいて、該選択された代表画像に対応する前記フレーム画像を前記表示のステップで表示する
    ことを特徴とする再生方法のプログラムを記録した記録媒体。
JP2006222869A 2006-02-10 2006-08-18 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体 Ceased JP2007243907A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006222869A JP2007243907A (ja) 2006-02-10 2006-08-18 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体
US11/704,155 US20070201832A1 (en) 2006-02-10 2007-02-08 Recording apparatus, recording method, program for recording method, recording medium recording program for recording method, reproducing apparatus, reproduction method, program for reproduction method, and recording medium recording program for reproduction method
EP07002839A EP1818937A1 (en) 2006-02-10 2007-02-09 Recording apparatus, recording method, program for recording method, recording medium recording program for recording method, reproducing apparatus, reproduction method, program for reproduction method, and recording medium recording program for reproduction method
KR1020070013854A KR20070081448A (ko) 2006-02-10 2007-02-09 기록 장치, 기록 방법, 기록 방법의 프로그램, 기록 방법의프로그램을 기록한 기록 매체, 재생장치, 재생 방법, 재생방법의 프로그램 및 재생 방법의 프로그램을 기록한 기록매체
TW096104888A TW200746083A (en) 2006-02-10 2007-02-09 Recording apparatus, recording method, program of recording method, recording medium recording program of recording method, reproducing apparatus, reproducing method, program of reproducing method, and recording medium recording program of reproducing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006033212 2006-02-10
JP2006222869A JP2007243907A (ja) 2006-02-10 2006-08-18 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2007243907A true JP2007243907A (ja) 2007-09-20

Family

ID=38006878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006222869A Ceased JP2007243907A (ja) 2006-02-10 2006-08-18 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体

Country Status (5)

Country Link
US (1) US20070201832A1 (ja)
EP (1) EP1818937A1 (ja)
JP (1) JP2007243907A (ja)
KR (1) KR20070081448A (ja)
TW (1) TW200746083A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225361A (ja) * 2008-03-18 2009-10-01 Sony Corp 記録装置および記録方法、ならびに、編集装置および編集方法
JP2010181800A (ja) * 2009-02-09 2010-08-19 Mitsubishi Electric Corp 暗号化メディアファイルのデータ構造、暗号化メディア作成方法、暗号化メディア復号方法、暗号化メディア分割方法及び暗号化メディア結合方法並びに装置
WO2010116985A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2010116987A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2010116986A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2012175281A (ja) * 2011-02-18 2012-09-10 Sharp Corp 録画装置及びテレビ受像装置
JP2017017447A (ja) * 2015-06-29 2017-01-19 キヤノン株式会社 データ記録装置およびその制御方法、撮像装置
JPWO2016047475A1 (ja) * 2014-09-26 2017-07-06 ソニー株式会社 情報処理装置および情報処理方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4715633B2 (ja) * 2006-05-19 2011-07-06 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、編集装置、編集方法および編集プログラム
US8365060B2 (en) * 2006-08-24 2013-01-29 Nokia Corporation System and method for indicating track relationships in media files
KR101395504B1 (ko) * 2007-10-25 2014-05-14 엘지전자 주식회사 영상표시기기 및 영상재생 방법
EP2083422A1 (en) * 2008-01-28 2009-07-29 Fortium Technologies Ltd. Media modelling
KR101537592B1 (ko) 2008-09-03 2015-07-22 엘지전자 주식회사 이동단말기 및 그 제어 방법
US8976871B2 (en) * 2009-09-16 2015-03-10 Qualcomm Incorporated Media extractor tracks for file format track selection
EP2542977A4 (en) * 2010-03-05 2015-01-07 Samsung Electronics Co Ltd METHOD AND DEVICE FOR TRANSFERRING AND RECEIVING A CONTENT FILE WITH MULTIPLE STREAMS
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
US9565476B2 (en) * 2011-12-02 2017-02-07 Netzyn, Inc. Video providing textual content system and method
US9014255B2 (en) * 2012-04-03 2015-04-21 Xerox Corporation System and method for identifying unique portions of videos with validation and predictive scene changes
JP6904871B2 (ja) * 2017-10-03 2021-07-21 キヤノン株式会社 プログラム、情報処理装置、および情報処理方法
US20210279633A1 (en) * 2020-03-04 2021-09-09 Tibco Software Inc. Algorithmic learning engine for dynamically generating predictive analytics from high volume, high velocity streaming data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552929B2 (ja) * 1998-11-27 2004-08-11 松下電器産業株式会社 復号化装置及び復号化方法
CA2376090C (en) * 1999-07-29 2004-10-19 Sharp Kabushiki Kaisha Method of locating access positions in a recording medium and managing device of the recording medium
JP3695581B2 (ja) * 2001-08-08 2005-09-14 ソニー株式会社 記録装置および記録方法、記録媒体、並びに、電子カメラ
JP3847751B2 (ja) * 2002-03-18 2006-11-22 シャープ株式会社 データ記録方法、データ記録装置、データ記録媒体、データ再生方法及びデータ再生装置
US7720356B2 (en) * 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
JP4022755B2 (ja) * 2003-01-21 2007-12-19 ソニー株式会社 記録装置、再生装置、ファイル管理方法及びファイル再生方法
JP3988079B2 (ja) * 2003-05-13 2007-10-10 ソニー株式会社 情報処理装置および方法、並びにプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225361A (ja) * 2008-03-18 2009-10-01 Sony Corp 記録装置および記録方法、ならびに、編集装置および編集方法
JP2010181800A (ja) * 2009-02-09 2010-08-19 Mitsubishi Electric Corp 暗号化メディアファイルのデータ構造、暗号化メディア作成方法、暗号化メディア復号方法、暗号化メディア分割方法及び暗号化メディア結合方法並びに装置
JP2010244637A (ja) * 2009-04-08 2010-10-28 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
WO2010116987A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2010116986A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2010244638A (ja) * 2009-04-08 2010-10-28 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
WO2010116985A1 (ja) * 2009-04-08 2010-10-14 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2010244636A (ja) * 2009-04-08 2010-10-28 Sony Corp 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US8913875B2 (en) 2009-04-08 2014-12-16 Sony Corporation Information processing apparatus, information recording medium, information processing method, and program
US8917977B2 (en) 2009-04-08 2014-12-23 Sony Corporation Information processing apparatus, information processing method, and program
JP2012175281A (ja) * 2011-02-18 2012-09-10 Sharp Corp 録画装置及びテレビ受像装置
JPWO2016047475A1 (ja) * 2014-09-26 2017-07-06 ソニー株式会社 情報処理装置および情報処理方法
US10484725B2 (en) 2014-09-26 2019-11-19 Sony Corporation Information processing apparatus and information processing method for reproducing media based on edit file
JP2017017447A (ja) * 2015-06-29 2017-01-19 キヤノン株式会社 データ記録装置およびその制御方法、撮像装置
US10362262B2 (en) 2015-06-29 2019-07-23 Canon Kabushiki Kaisha Data recording apparatus and method of controlling the same

Also Published As

Publication number Publication date
US20070201832A1 (en) 2007-08-30
EP1818937A1 (en) 2007-08-15
KR20070081448A (ko) 2007-08-16
TW200746083A (en) 2007-12-16

Similar Documents

Publication Publication Date Title
JP2007243907A (ja) 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体
EP1560431A1 (en) Data processing device
JP4062230B2 (ja) ファイル記録再生装置、ファイル記録再生方法、ファイル記録再生方法のプログラム及びファイル記録再生方法のプログラムを記録した記録媒体
JP2008053763A (ja) Avデータ記録装置及び方法、avデータ再生装置及び方法、当該avデータ記録装置又は方法で記録された記録媒体
JP2001111963A (ja) 光ディスクを利用したビデオカメラにおける録画再生方法
JP4323870B2 (ja) 記録装置
JP4552802B2 (ja) 記録装置、記録方法、記録方法のプログラム及び記録方法のプログラムを記録した記録媒体
JP2005033383A (ja) 動画像編集装置及びその制御方法
JP2009225361A (ja) 記録装置および記録方法、ならびに、編集装置および編集方法
JP2006073173A (ja) 情報記録再生装置及び方法
US8315504B2 (en) Reproducing apparatus for reproducing movie data from a storage medium
JP4534971B2 (ja) 動画記録装置、動画記録方法、動画伝送方法、動画記録方法のプログラム及び動画記録方法のプログラムを記録した記録媒体
WO2007013587A1 (ja) 記録機器および再生機器
JP2007200409A (ja) 撮像装置、記録装置及び記録方法
JP2007325110A (ja) 撮像装置及び撮像装置の制御方法
WO2004036582A1 (ja) Avデータ記録方法、avデータ記録装置、データ記録媒体、プログラム並びにプログラム記録媒体
JP2008160564A (ja) カメラ装置およびカメラ装置におけるチャプタデータ生成方法
JP3861045B2 (ja) 映像信号記録装置、映像信号記録方法及び映像信号記録用プログラム
JP4788607B2 (ja) 撮像装置、画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2004040518A (ja) 撮像記録装置と再生装置
JP4255796B2 (ja) データ記録装置、データ記録方法、データ記録プログラム、および該プログラムを記録した記録媒体
JP2006325143A (ja) 携帯型画像再生装置及び携帯型画像再生装置の制御方法
JP2008154099A (ja) カメラ装置およびカメラ装置における静止画生成方法
JP2005135554A (ja) 再生装置及び方法
JP2003224827A (ja) 動画像記録方法および再生方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090319

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090331

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

AA92 Notification of invalidation

Free format text: JAPANESE INTERMEDIATE CODE: A971092

Effective date: 20090901