JP2005085364A - ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体 - Google Patents

ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2005085364A
JP2005085364A JP2003316251A JP2003316251A JP2005085364A JP 2005085364 A JP2005085364 A JP 2005085364A JP 2003316251 A JP2003316251 A JP 2003316251A JP 2003316251 A JP2003316251 A JP 2003316251A JP 2005085364 A JP2005085364 A JP 2005085364A
Authority
JP
Japan
Prior art keywords
effect
track
file
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003316251A
Other languages
English (en)
Other versions
JP3835554B2 (ja
Inventor
Satoshi Tsujii
訓 辻井
Mitsuhiro Hirabayashi
光浩 平林
Fumitaka Kawate
史隆 川手
Makoto Yamada
誠 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2003316251A priority Critical patent/JP3835554B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to PCT/JP2004/011022 priority patent/WO2005027133A1/ja
Priority to EP04748176A priority patent/EP1667156B1/en
Priority to CN2004800255734A priority patent/CN1846266B/zh
Priority to KR1020067004718A priority patent/KR20060076769A/ko
Priority to DE602004023310T priority patent/DE602004023310D1/de
Priority to US10/570,811 priority patent/US7702220B2/en
Publication of JP2005085364A publication Critical patent/JP2005085364A/ja
Application granted granted Critical
Publication of JP3835554B2 publication Critical patent/JP3835554B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

【課題】本発明は、ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体に関し、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減する。
【解決手段】 ビデオデータの管理情報によるビデオトラックSTに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックETを作成すると共に、このエフェクトトラックETの対象であるソーストラックSTをビデオトラックSTに設定してファイルを作成する。
【選択図】 図1

Description

本発明は、ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体に関し、例えばQTフォーマットのファイルによる撮像結果を編集する場合等に適用することができる。本発明は、ビデオデータの管理情報によるビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、このエフェクトトラックの対象であるソーストラックをビデオのトラックに設定してファイルを作成することにより、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができるようにする。
従来、マルチメディア対応のファイルフォーマットとしてQuick Timeファイルフォーマット(以下:QTフォーマットと呼ぶ)が広く知られている。
このQTフォーマットは、動画、静止画、音声等による実データがまとめられてブロック化され、またこの実データのブロックとは別に、この実データを管理する管理情報がまとめられてブロック化される。以下、このようなブロックをアトムと呼び、実データをまとめたアトムをムービーデータアトム(Movie Data Atom )と呼ぶ。また管理情報をまとめたアトムをムービーアトム(Movie Atom)と呼ぶ。
ここでムービーアトムは、属性毎に管理情報をまとめてボックス化して階層構造により各種アトムが形成される。ムービーアトムは、この階層構造によるアトムにより実データの種類に対応した管理情報のブロックによる各種トラック等が作成される。具体的に、ムービーアトムでは、メディアデータがビデオデータ、サウンドデータの場合、それぞれビデオトラック、オーディオトラックが形成され、それぞれ各トラックによりムービーデータアトムの対応する実データを管理するようになされている。しかしてビデオトラックには、動画によるビデオデータだけでなく、静止画による画像データも割り当てられるようになされているものの、例えばMPEG2−PS(Program Stream)データ等の、ビデオデータとオーディオデータが多重化されたデータにあっては、その管理情報を割り当てたトラックについてはビデオトラックには分類されず、ベースメディアトラックと称される。しかしながらこのように種類が異なっている場合であっても、ビデオデータが割り当てられている場合にあっては、何れのトラックによる実データおいても編集の対象とされ、これにより以下において、ビデオトラックは、適宜、ビデオデータを含んでなる実データを管理するベースメディアトラックをも含む意味で使用する。また敢えてビデオのトラックとの言及がある場合には、サウンドトラック以外の、ビデオデータの管理情報が割り当てられているトラックを意味するものとする。
またこのような実データの管理にあっては、一体に保持されたムービーデータアトムに限らず、他のファイルに保持されたムービーデータアトムについても管理できるようになされ、これによりいわゆる内部参照形式、外部参照形式により各種メディアを提供できるようになされている。
これに対してムービーデータアトムは、実データが所定の最小管理単位であるサンプルで区切られ、QTフォーマットでは、この実データの最小管理単位に対してそれぞれ管理情報がムービーアトムに設定されるようになされている。しかしてQTフォーマットによりファイルを作成する場合、処理の利便性を考慮して、例えば特開2001−94933号公報に開示されているように、通常、表示の単位に対応する1フレーム又は1GOP(Group Of Pictures )を1サンプルに設定するようになされている。
QTフォーマットにおけるビデオデータのエフェクトを付加する編集処理においては、これにより実際にエフェクト加工済みの実データに作り替えたビデオデータをムービーデータアトムに割り当てると共に、このビデオデータに対応するビデオトラックによりムービーアトムを形成することにより編集結果によるファイルを作成できるようになされている。
またQTフォーマットは、このような実際にエフェクト加工済みの編集処理したビデオデータによるムービーデータアトムに代えて、元のビデオデータによるムービーデータアトムを用いてビデオデータに再生時エフェクト付加する編集処理できるようにも構成されるようになされている。このようなビデオデータの編集においては、編集処理に係る管理情報を割り当てたエフェクトトラックをムービーアトムに形成し、このエフェクトトラックの入力ソースに元のビデオデータに係るムービーデータアトムが割り当てられるようになされている。
すなわち図21に示すように、このような編集処理において、いわゆる1ソースエフェクトにより例えば1つのビデオデータによるストリーミングの一部区間Tにぼかし等のフィルタリング処理によるエフェクトを加える場合、この元のビデオデータによる実データに対応するビデオトラック(すなわちオリジナルトラックである)VTに対して(図21(A))、このビデオトラックVTに設定されている管理情報(後述するサンプルテーブルによる管理情報である)に基づいて、この区間Tの実データを特定するソーストラックSTが作成される(図21(B))。またこのソーストラックSTに対してエフェクトに係る具体的な処理を定義するエフェクトトラックETが作成される(図21(C))。
この場合、QTファイルにおいては、オリジナルトラックであるビデオトラックVTに対応する実データが順次再生される。またこのオリジナルトラックによる再生と同時並列的な処理により、区間Tにおいては、ソーストラックSTによる実データが順次再生されながらエフェクトトラックETにより処理され、このエフェクトトラックETにより処理されたビデオデータが、ビデオトラックVTによるビデオデータに優先して出力される。これらによりこのような1ソースエフェクトにおいては、3つのトラックをハンドリングしてフィルタリング処理に係る編集処理が実行されるようになされている。なおこの図21において、srcAは、ソースを特定する固有名称である。
これに対して図22に示すように、このような編集処理において、いわゆる2ソースエフェクトにより例えば2つのビデオデータによるストリーミングにクロスフェード等によるトランジション処理によるエフェクトを加える場合、この2つのビデオデータによる実データにそれぞれ対応するビデオトラックVT1及びVT2がオリジナルトラックに設定され(図22(A)及び(B))、これら2つのビデオトラックVT1及びVT2の管理情報によりエフェクトに係る区間TのソーストラックST1及びST2がそれぞれ作成される(図22(C)及び(D))。またこのソーストラックST1及びST2に対してエフェクトに係る具体的な処理を定義するエフェクトトラックETが作成される(図22(E))。
この場合、QTファイルにおいては、オリジナルトラックであるビデオトラックVT1及びVT2により対応する実データが順次再生される。またこのオリジナルトラックによる再生と同時並列的な処理により、区間Tにおいては、ソーストラックST1及びST2により対応する実データが順次再生されながらエフェクトトラックETにより処理され、このエフェクトトラックETにより処理されたビデオデータが、ビデオトラックVT1及びVT2によるビデオデータに優先して出力される。これらにより2ソースエフェクトにおいては、5つのトラックをハンドリングしてトランジション処理による編集処理が実行されるようになされている。
しかしてQTフォーマットでは、このように編集処理に係るエフェクトトラックに関しても、管理情報と実データとに分けて処理するようになされており、これによりエフェクトトラックには、編集処理して出力するファイルに関して、例えばクロマーキー等の編集処理に係るエフェクトの種類が時系列により記述されるようになされ、対応するムービーデータアトムにはそれぞれ各エフェクトに係るパラメータが記述されるようになされている。これによりQTファイルでは、このようなエフェクトトラックに関して、エフェクト付加の処理の種類が異なる毎に、さらにはパラメータの値が異なる毎に、サンプル単位で管理されるようになされている。
しかしてこのような編集及び、その結果を再生する処理に係るハードウエア、ソフトウエアの負担を軽減することができれば、その分、この種のファイルの処理に係る構成を簡略化することができる。
特開2001−94933号公報
本発明は以上の点を考慮してなされたもので、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができるファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体を提案しようとするものである。
かかる課題を解決するため請求項1の発明においては、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録装置に適用して、ユーザーによる入力に応じて、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、エフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成する。
また請求項8の発明においては、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生装置に適用して、エフェクトトラックは、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成されてなるようにし、ファイル再生装置は、対象のソーストラックがビデオトラックに設定され、エフェクトトラックに設定された管理情報に基づいて、ソーストラックによるビデオデータを再生しながらエフェクト処理して出力する。
また請求項12の発明においては、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法に適用して、ユーザーによる入力に応じて、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、エフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成する。
また請求項15の発明においては、コンピュータに所定の処理手順を実行させることにより、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法のプログラムに適用して、処理手順は、ユーザーによる入力に応じて、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、エフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成するステップを有するようにする。
また請求項16の発明においては、コンピュータに所定の処理手順を実行させることにより、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法のプログラムを記録した記録媒体に適用して、処理手順が、ユーザーによる入力に応じて、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、エフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成するステップを有するようにする。
また請求項17の発明においては、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法に適用して、エフェクトトラックは、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックがビデオトラックに設定され、ファイル再生方法は、エフェクトトラックに設定された管理情報に基づいて、ソーストラックによるビデオデータを再生しながらエフェクト処理して出力する。
また請求項20の発明においては、コンピュータに所定の処理手順を実行させることにより、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法のプログラムに適用して、エフェクトトラックは、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックがビデオトラックに設定され、処理手順は、エフェクトトラックに設定された管理情報に基づいて、ソーストラックによるビデオデータを再生しながらエフェクト処理して出力するステップを有するようにする。
また請求項21の発明においては、コンピュータに所定の処理手順を実行させることにより、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法のプログラムを記録した記録媒体に適用して、エフェクトトラックは、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックがビデオトラックに設定され、処理手順は、エフェクトトラックに設定された管理情報に基づいて、ソーストラックによるビデオデータを再生しながらエフェクト処理して出力するステップを有するようにする。
請求項1の構成により、ファイル記録装置に適用して、ユーザーによる入力に応じて、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、エフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成すれば、再生時、エフェクトトラック、ソーストラックのハンドリングだけで編集処理によるビデオデータを出力することができ、その分、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができる。
また請求項8の構成により、ファイル再生装置に適用して、エフェクトトラックは、ビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成されてなるようにし、ファイル再生装置は、対象のソーストラックがビデオトラックに設定され、エフェクトトラックに設定された管理情報に基づいて、ソーストラックによるビデオデータを再生しながらエフェクト処理して出力すれば、エフェクトトラック、ソーストラックのハンドリングだけで編集処理によるビデオデータを出力することができ、その分、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができる。
これらにより請求項12、請求項15、請求項16の構成によれば、QTフォーマット等によるファイルについての編集処理に係る負担を軽減することができるファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体を提供することができる。また請求項17、請求項20、請求項21の構成によれば、QTフォーマット等によるファイルについてのエフェクト処理に係る負担を軽減することができるファイル再生方法、ファイル再生方法のプログラム、ファイル再生方法のプログラムを記録した記録媒体を提供することができる。
本発明によれば、QTフォーマット等によるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができる。
以下、適宜図面を参照しながら本発明の実施例を詳述する。
(1)実施例の構成
(1−1)ビデオディスク装置の全体構成
図2は、本発明の実施例に係るビデオディスク装置を示すブロック図である。このビデオディスク装置1においては、図示しない撮像手段、音声取得手段により被写体のビデオ信号、オーディオ信号を取得し、このビデオ信号及びオーディオ信号による撮像結果を光ディスク2に記録する。またこの光ディスク2に記録した撮像結果を再生して液晶表示パネルによる表示手段、スピーカによる音声出力手段より出力し、また外部機器に出力する。さらにこのようにして撮像結果をユーザーに提供して、ユーザーによる編集点の設定等を受け付け、撮像結果を編集処理する。
このビデオディスク装置1では、このような撮像結果によるビデオ信号及びオーディオ信号をMPEGのフォーマットによりデータ圧縮した後、所定のファイルフォーマットにより光ディスク2に記録するようになされ、この実施例では、このファイルフォーマットにQTフォーマットが適用されるようになされている。なお以下において、QTフォーマットによるファイルをQTファイルと呼ぶ。
これによりビデオディスク装置1において、ビデオ符号器11は、撮像結果によるビデオ信号DV1をアナログディジタル変換処理してビデオデータを生成し、このビデオデータをMPEGのフォーマットに従って符号化処理し、これによりビデオデータによるエレメンタリストリームDVを出力する。
またオーディオ符号器12は、撮像結果によるオーディオ信号DA1をアナログディジタル変換処理してオーディオデータを生成し、このオーディオデータをMPEGのフォーマットに従って符号化処理し、これによりオーディオデータによるエレメンタリストリームDAを出力する。
ファイル生成器15は、記録時、ビデオ符号器11及びオーディオ符号器12から出力されるエレメンタリストリームDA及びDVを同期化して多重化処理し、システム制御マイコン19の制御によりQTファイルを作成する。このためファイル生成器15は、順次入力されるエレメンタリストリームDA及びDVを多重化してムービーデータアトムのデータを順次出力しながら、このムービーデータアトムのデータに対応して内蔵のメモリ15Aにムービーアトムの生成に必要なデータを追記して保持し、ムービーデータアトムの記録の完了によりメモリ15Aに保持したデータからムービーアトムのデータ列を生成して出力する。
メモリコントローラ18は、システム制御マイコン19の制御により動作を切り換え、記録時、このファイル生成器15から出力されるQTファイルによるデータ列をメモリ17に順次記録して一時保持し、続くエラー訂正符号/復号器21の処理に対応して保持したデータを出力する。また再生時、これとは逆に、エラー訂正符号/復号器21の出力データを一時保持し、ファイル復号器16、システム制御マイコン19に出力する。
エラー訂正符号/復号器21は、システム制御マイコン19の制御により動作を切り換え、記録時、メモリコントローラ18の出力データをメモリ20に一時記録して誤り訂正符号を付加する。またこのようにしてメモリ20に保持したデータを所定順序により読み出して出力することにより、これらのデータをインターリーブ処理してデータ変復調器23に出力する。またエラー訂正符号/復号器21は、再生時、記録時とは逆に、データ変復調器23から出力されるデータを所定順序によりメモリ20に一時記録してメモリコントローラ18に出力することにより、このデータ変復調器23から出力されるデータをデインターリーブ処理して出力する。またこのとき、記録時に付加した誤り訂正符号により誤り訂正処理する。
データ変復調器23は、システム制御マイコン19の制御により動作を切り換え、記録時、エラー訂正符号/復号器21の出力データをシリアルデータ列に変換した後、変調処理して磁界変調ドライバ24又は光ピックアップ33に出力する。また再生時、光ピックアップ33から出力される再生信号からクロックを再生し、このクロックを基準にして再生信号を2値識別、復調処理することにより、記録時に生成したシリアルデータ列に対応する再生データを得、この再生データをエラー訂正符号/復号器21に出力する。
磁界変調ドライバ24は、光ディスク2が光磁気ディスクの場合に、記録時、システム制御マイコン19の制御により、データ変復調器23の出力信号により磁界ヘッド32を駆動する。ここで磁界ヘッド32は、光ディスク2を間に挟んで光ピックアップ33に対向するように保持され、光ピックアップ33によるレーザービーム照射位置にデータ変復調器23の出力データに応じた変調磁界を印加する。これによりこのビデオディスク装置1では、光ディスク2が光磁気ディスクの場合、熱磁気記録の手法を適用してQTフォーマットによるファイルにより撮像結果を光ディスク2に記録するようになされている。
かくするにつき光ディスク2は、ディスク状記録媒体であり、この実施例では、光磁気ディスク(MO:Magneto-Optical Disk)、相変化型ディスク等の書き換え可能な光ディスクである。スピンドルモータ31は、この光ディスク2をサーボ回路30の制御により、光ディスク2に応じて線速度一定(CLV:Constant Linear Velocity)、角速度一定(CAV、Constant Angular Velocity)、ゾーンCLV(ZCLV:Zone Constant Linear Velocity )等の条件により光ディスク2を回転駆動する。
サーボ回路30は、光ピックアップ33から出力される各種信号に基づいて、スピンドルモータ31の動作を制御し、これによりスピンドル制御の処理を実行する。またサーボ回路30は、同様にして光ピックアップ33をトラッキング制御、フォーカス制御し、また光ピックアップ33、磁界ヘッド32をシークさせ、さらにはフォーカスサーチ等の処理を実行する。
ドライブ制御マイコン22は、システム制御マイコン19の指示により、これらサーボ回路30におけるシーク等の動作を制御する。
光ピックアップ33は、光ディスク2にレーザービームを照射してその戻り光を所定の受光素子により受光し、受光結果を演算処理することにより、各種制御用の信号を生成して出力し、また光ディスク2に形成されたピット列、マーク列に応じて信号レベルが変化する再生信号を出力する。また光ピックアップ33は、システム制御マイコン19の制御により動作を切り換え、光ディスク2が光磁気ディスクの場合、記録時、光ディスク2に照射するレーザービームの光量を間欠的に立ち上げる。これによりこのビデオディスク装置1では、いわゆるパルストレイン方式により光ディスク2に撮像結果を記録するようになされている。また光ピックアップ33は、光ディスク2が相変化型ディスク等の場合、データ変復調器23の出力データに応じて光ディスク2に照射するレーザービームの光量を再生時の光量から書き込み時の光量に立ち上げ、これにより熱記録の手法を適用して光ディスク2に撮像結果を記録するようになされている。
これらによりこのビデオディスク装置1では、撮像結果によるビデオ信号及びオーディオ信号をビデオ符号器11、オーディオ符号器12によりデータ圧縮してエレメンタリストリームに変換した後、ファイル生成器15によりQTフォーマットのファイルに変換し、メモリコントローラ18、エラー訂正符号/復号器21、データ変復調器23を順次介して、光ピックアップ33により、又は光ピックアップ33及び磁界ヘッド32によりこのQTフォーマットのファイルを光ディスク2に記録するようになされている。
またビデオディスク装置1では、光ピックアップ33より得られる再生信号をデータ変復調器23により処理して再生データを得、この再生データをエラー訂正符号/復号器21で処理して、光ディスク2に記録したQTフォーマットによるファイルを再生できるようになされ、これらQTフォーマットによるファイルのデータをメモリコントローラ18から出力するようになされている。
ファイル復号器16は、メモリコントローラ18から出力されるQTファイルのデータを入力し、このデータをビデオデータ及びオーディオデータのエレメンタリストリームに分解して出力する。この処理において、ファイル復号器16は、システム制御マイコン19によるシーク等の制御により事前にムービーアトムのデータを取得して保持し、このムービーアトムに設定された管理情報に基づいてビデオデータ及びオーディオデータのエレメンタリストリームを出力する。
ビデオ復号器13A、13Bは、このビデオデータのエレメンタリストリームをデータ伸長して図示しない表示手段、外部機器に出力する。しかしてこのビデオディスク装置1では、ビデオ復号器13A、13Bがそれぞれビデオデータのエレメンタリーストリームを処理できるようになされ、これにより2ソースエフェクトに係る2系統のビデオデータを同時並列的に出力できるようになされている。エフェクト付加回路35は、システム制御マイコン19の制御により、通常の再生処理においては、ビデオ復号器13A又は13Bから出力されるビデオデータを何ら処理することなく出力する。これに対して編集処理結果によるビデオデータを出力する場合には、システム制御マイコン19の制御により、ビデオ復号器13A又は13Bから出力されるビデオデータにエフェクトを付加して、またはエフェクトを付加することなく出力する。また2ソースエフェクトに係る処理においては、これらビデオ復号器13A、13Bから出力される2系統のビデオデータをフェクトによる処理により1系統のビデオデータに変換して出力する。
オーディオ復号器14は、ファイル復号器16から出力されるオーディオデータのエレメンタリストリームをデータ伸長して、図示しない音声出力手段、外部機器に出力する。これによりこのビデオディスク装置1では、光ディスク2から再生した撮像結果をモニタし得るようになされている。
システム制御マイコン19は、このビデオディスク装置1全体の動作を制御するマイコンであり、図示しないメモリに記録された所定の処理プログラムの実行により、ユーザーによる操作に応動して各部の動作を制御する。これによりシステム制御マイコン19は、撮像結果を光ディスク2に記録し、またこの光ディスク2に記録した撮像結果を再生してユーザーに提供し、さらには編集処理を実行するようになされている。
なおこのビデオディスク装置1において、このシステム制御マイコン19に係る処理プログラムにおいては、事前にインストールされて提供されるようになされている。しかしながらこのような事前のインストールによる提供に代えて、記録媒体に記録して提供してインストールするようにしてもよい。因みに、このような記録媒体においては、光ディスク、磁気ディスク、メモリカード、磁気テープ等、種々の記録媒体を広く適用することができる。
(1−2)QTファイル
ここで図3は、QTファイルの基本構成を示す概念図である。QTフォーマットは、特殊なハードウエアを用いずに動画等を再生するためのOS(Operating System) の拡張機能として生まれたファイルフォーマットである。QTフォーマットは、動画、音声、静止画、文字、MIDI等の種々の形式による実データを1つの時間軸で同期させて再生することができるタイムベースのマルチメディアファイルフォーマットであり、ネットワーク上のストリーミングにも対応できるようになされている。
QTファイルにおいて、これら種々の形式による実データは、メディアデータとしてそれぞれ個別のトラックとして格納され、それぞれ動画、音声、文字による実データのトラックがビデオトラック、サウンドトラック(オーディオトラック)、テキストトラックと称されるようになされている。なおQTファイルには、他にも、ビデオデータとオーディオデータが多重化されたデータ、例えばMPEG2-PS(Program Stream)データを管理するMPEG2-PSトラックなども有る。
QTファイルF1、F2は、このトラックの集合によりムービーデータアトム(Movie
Data Atom )が形成され、このムービーデータアトム(Movie Data Atom )の各トラックの管理情報等がまとめられてムービーアトム(Movie Atom)が形成される。なおアトムは、ボックス(Box )と呼ばれる場合もある。またムービーデータアトムは、アトムのタイプ名がmdatに設定され、メディアデータ(Media Data)とも呼ばれる。これに対してムービーアトム(Movie Atom)は、アトムのタイプ名がmoovに設定され、ムービーリソース(Movie Resource)とも呼ばれる。
QTファイルは、これらムービーデータアトム、ムービーアトムが一体となった形式の自己内包形ファイルF1と、ムービーアトムのみからなる形式の外部参照形ファイルF2とがあり、この外部参照形ファイルF2においては、他のファイルF1に存在するムービーデータアトムを管理対象に設定できるようになされ、これによりノンリニア編集等に利用できるようになされている。なおこのように他のファイルF1に存在するムービーデータアトムを管理対象とする場合には、ムービーアトムに、この他のファイルに係る記録媒体上の相対パス、絶対パス等の管理情報が併せて割り当てられるようになされている。
しかして図3の例においては、自己内包形ファイルF1のムービーデータアトムに、オーディオ(A1及びA2)によるメディアデータ、ビデオ(V1及びV2)によるメディアデータが割り当てられ、このファイルF1のムービーアトムにより、又は外部参照形ファイルF2のムービーアトムにより、これらのメディアデータを再生できるようになされている。
図4は、自己内包形ファイルF1に関して、ビデオトラック及びオーディオトラックによりムービーデータアトムが構成されている場合を例にとって、これらムービーデータアトム、ムービーアトムの一般的な構成を各アトムのタイプ名と共に示す図表である。なおムービーアトムにおいて、トラックアトム(タイプ名trak)は、下位階層のアトム構造がビデオトラックとオーディオトラックとでほぼ同一であることにより、図4においてオーディオトラックに係るトラックアトムの下位階層について記述を省略して示す。
ムービーアトムは、管理情報を属性毎にアトム化した階層構造により作成される。すなわちムービーアトムは、ムービーヘッダアトム(movie header)、トラックアトム(track )等により構成される。ムービーヘッダアトムは、ヘッダー情報が収容され、タイプ名がmvhdに設定される。これに対してトラックアトム(track )は、ムービーデータアトムに設けられたトラックに対応してそれぞれ設けられ、この例ではビデオトラックとオーディオトラックとが設けられる。トラックアトム(track )は、トラックヘッダアトム(track header)、エディットアトム(edit)、メディアアトム(media )等により構成され、それぞれムービーデータアトムの個々の実データに関する情報が記述される。
ここでトラックヘッダアトム(track header)は、ヘッダー情報が収容される。エディットアトム(edit)は、必要に応じてエディットリストアトム(edit list )を含み、このエディットリストアトム(edit list )に、イン点、アウト点までの時間情報、再生速度等の情報を設定することにより、ノンリニア編集に利用できるようになされている。
メディアアトム(media )は、それぞれ対応する実データの圧縮方式、格納場所、表示時間等を管理するための情報が割り当てられ、タイプ名がmdiaに設定される。メディアアトム(media )は、メディアヘッダアトム(media header)、メディアハンドラリファレンスアトム(media handler reference )、メディア情報アトム(media information )により構成される。ここでメディアヘッダアトム(media header)は、ヘッダー情報が割り当てられ、メディアハンドラリファレンスアトム(media handler reference (図4においてはmedia handler により示す))は、対応する実データの種類が記録され、これによりビデオデータ、オーディオデータ等を識別できるようになされている。
メディア情報アトム(media information )は、最小の管理単位であるサンプルに係る各種の情報が割り当てられ、タイプ名がminfに設定される。メディア情報アトム(media
information )は、実データに対応するメディア情報ヘッダアトム(video media information header、sound media information header(図4においてはvideo media headerにより示す))、データハンドラリファレンスアトム(data handler reference(図4においてはdata handlerにより示す))、データ情報アトム(data information)、サンプルテーブルアトム(sample table)により構成される。
ここでメディア情報ヘッダアトムは、上位のメディアハンドラリファレンスアトム(media handler reference )に対応して、ビデオトラック及びオーディオトラックでそれぞれタイプ名がvmhd、smhdに設定され、ヘッダ情報が収容される。なお、ビデオデータとオーディオデータが多重化された例えばMPEG2-PS(Program Stream)データを管理するMPEG2-PSトラックでは、メディア情報ヘッダアトム(base(general) media information header)として、タイプ名がgmhdに設定される。データハンドラリファレンスアトム(data handler reference)は、対応する実データの取り扱いに関する情報が設定され、データ情報アトム(data information)は、下位階層のデータリファレンスアトム(data reference)により実際に参照するデータの格納場所、格納方法の情報が割り当てられるようになされている。
サンプルテーブルアトム(sample table)は、各サンプルに関する情報が割り当てられ、タイプ名がstblに設定される。サンプルテーブルアトム(sample table)は、サンプルディスクリプションアトム(sample description)、時間サンプルアトム(time-to-sample)、サンプルサイズアトム(sample size )、サンプルチャンクアトム(sample-to-chunk )、チャンクオフセットアトム(chunk offset)等により構成される。
ここでサンプルディスクリプションアトム(sample description)は、デコードに関する情報が保存され、具体的にデータ圧縮方式、関連する情報が割り当てられる。時間サンプルアトム(time-to-sample)は、各サンプルとデコードに係る時間軸との関係がフレームレートにより記述される。サンプルサイズアトム(sample size )は、各サンプルのデータ量が記述され、サンプルチャンクアトム(sample-to-chunk )は、チャンク(chunk
)とそのチャンク(chunk )を構成するサンプルとの関係が記述される。なおここでチャンク(chunk )は、ムービーデータアトムに各トラックデータをブロック化して割り当てる際の各ブロックであり、複数サンプルの集合により1つのチャンクが作成される。チャンクオフセットアトム(chunk offset)は、ファイル先頭を基準にした各チャンク先頭の位置情報がエントリにより記録される。QTフォーマットにおいては、このサンプルテーブルアトムの管理情報の記録により実データの管理単位である各サンプルを順次再生できるようになされている。
これに対してムービーデータアトムは、QTファイルの実データであるビデオデータ及びオーディオデータのエレメンタリストリームが、それぞれサンプルの集合としてチャンク(chunk )に割り当てられ、ビデオデータのエレメンタリストリームによるチャンク、オーディオデータのエレメンタリストリームによるチャンクが交互に設けられるようになされている。
この実施例では、オーディオ符号器12、ビデオ符号器11により、これらオーディオデータ及びビデオデータのエレメンタリストリームに、MPEG1 Audio Layer 2の圧縮符号化方式によって符号化したオーディオデータ、MPEG2 Video の圧縮符号化方式によって符号化したビデオデータを適用するようになされている。なおQTファイルにおいては、例えばMotion JPEG、Motion JPEG2000、MPEG4、AVC(Advanced Video Coding :MPEG4−part10)等の各種のビデオデータ、Dolby AC3、ATRAC(Adaptive Transform Acoustic Coding)等の各種のオーディオデータをこれらオーディオデータ及びビデオデータに適用することも可能であり、さらには何ら圧縮符号化処理していないリニアデータを適用することも可能である。また、ビデオデータとオーディオデータが多重化されたデータ、例えばMPEG2-PS(Program Stream)データに適用することも可能である。
このようなビデオトラック、オーディオトラックに係るQTフォーマットに対して、ビデオデータにエフェクトを付加する為に用意され、そのエフェクト内容を記述するトラック(エフェクトトラックと呼ぶ)を有する場合、QTフォーマットにおいては、図5〜図9に示すように構成される。なおここで図5〜図9は、QTフォーマットによるファイル構造をC言語の記述によりそれぞれタイプフィールドに割り当てられるタイプ名と共に示す図表である。図5及び図6は、いわゆるフィルタリングの処理に係る編集処理による場合であり、編集対象が1つのビデオトラックであるいわゆる1ソースエフェクトの場合である。なおこのような1つのビデオソースに対するフィルタ効果例として、モノクローム変換、セピア色変換、ぼかし、モザイク等が挙げられる。
これに対して図7〜図9は、例えばクロスフェード、ワイプのように、編集対象が2つのビデオトラックの場合であり、いわゆる2ソースエフェクトの場合である。なお図5〜図9においては、エフェクトトラックがエフェクトを施す為の入力ソースとなるビデオデータを管理しているトラック(ソーストラックと呼ぶ)と、エフェクトトラックとの関係についてのみ記述し、オーディオトラック等については記載を省略する。
ここでQTフォーマットにおいて、エフェクトトラックは、ビデオトラックと同じビデオメディアとしてメディアタイプが定義され、これによりビデオメディアのフィールドが適用され、ビデオトラックとほぼ同様に形成される。なお、ソーストラックは、エフェクトを施す対象としてビデオデータを持ち得るトラックであるので、当然ビデオメディアタイプの場合も有れば、先述のビデオデータとオーディオデータが多重化された例えばMPEG2-PS(Program Stream)データを扱うメディアタイプの場合も有る。本実施例では、ビデオメディアタイプのトラックをソーストラックとする例として記述している。
すなわち図5に示すように、QTファイルにおいては、ムービーアトムによるムービーヘッダアトム(movie header)に続いて、ビデオトラックによるトラックアトムが形成され、このトラックアトムが図4を用いて説明したように形成される。QTファイルは、このビデオトラックがソーストラックとして指定され、これに続いて、エフェクトトラックであるトラックアトム(Track atom(effect))が形成され、ビデオトラックの場合と同様に、このエフェクトトラックに、トラックヘッダアトム(track header)、エディットアトム(edit)、メディアアトム(media )が形成される。エフェクトトラックにおいては、これらトラックヘッダアトム(track header)、エディットアトム(edit)、メディアアトム(media )に加えて、さらにトラックリファレンスアトム(Track Reference Atom(タイプ名tref))が形成される。
ここでトラックリファレンスアトムは、エフェクトを施す対象であるソーストラックとの参照関係を指定する情報が記述される。すなわちトラックリファレンスアトム(Track
Reference Atom)は、このアトムに属するTrack Reference Type Atom (タイプ名ssrc)に、対応するソーストラックのTrack header Atom (タイプ名tkhd)に記述されたトラックIDが記述される。ここでこのトラックIDは、各トラックにそれぞれ設定される各トラックに固有の識別コードである。これによりエフェクトトラックでは、処理対象のビデオトラックを特定できるようになされている。
しかして図5及び図6に示すように1ソースエフェクトの場合においては、ムービーアトムに設けられたビデオトラックの1つがこのトラックリファレンスタイプアトム(Track Reference Type Atom )のトラックIDにより特定されるようになされている。これに対して図7〜図9に示す2ソースエフェクトの場合においては、ムービーアトムに2つ以上のビデオトラックが設けられた状態で、このトラックリファレンスタイプアトム(Track Reference Type Atom )に2つのトラックIDが設けられ、この2つのトラックIDによりムービーアトムに設けられた2つのビデオトラックが特定されるようになされている。
さらにエフェクトトラックは、ビデオメディアタイプによるメディアアトムの構成要素であるメディアヘッダアトム(media header)、メディアハンドラリファレンスアトム(media handler reference )、メディア情報アトム(media information )に加えて、さらにトラックインプットマップアトム(Track Input Map Atom(タイプ名imap))が設けられる。ここでトラックインプットマップアトムは、エフェクトを施す対象であり、エフェクトトラックにとっての入力であるソーストラックに関する情報が、QTアトム構造により記述される。
ここでこのQTアトム構造は、QTアトムコンテナ(QT Atom Container (タイプ名sean))を最上位アトムとするコンテナによってパッキングされて、トラックインプットQTアトム(Track Input QTatom(タイプ名 in:タイプ名の先頭2文字は16進数表現で0x0000))が必要数だけ設けられる。またトラックインプットQTアトムは、入力ソースがビデオメディアであることを指定するインプットタイプQTアトム(Input Type
QTatom(タイプ名 ty:タイプ名の先頭2文字は16進数表現で0x0000))、対応するソーストラックの固有の名称を記述するデータソースタイプQTアトム(Data Source TypeQTatom(タイプ名dtst))が割り当てられる。
これにより図5及び図6に示す1ソースエフェクトの場合、トラックインプットQTアトムは、1個であるのに対し、図7〜図9に示す2ソースエフェクトの場合、トラックインプットQTアトムは、2個設けられるようになされている。
これらによりQTファイルでは、図1(C)及び図10(B)にそれぞれ1ソースエフェクト及び2ソースエフェクトに係るムービーアトム(ムービーリソース)とムービーデータアトムとの関係を示すように、エフェクトトラックETのトラックリファレンスアトム(Track Reference Atom(tref))、トラックインプットマップアトム(Track Input
Map Atom(imap))によりソーストラックST、ST1、ST2を特定できるようになされている。なお図1(A)及び(B)、図10(A)〜(C)は、実データに係るビデオデータとエフェクトの処理との関係をエフェクトトラックとの対比により示す図である。
またエフェクトトラックは、サンプルテーブルアトム(sample table)のサンプルディスクリプションアトム(sample description)に、エフェクトに係る情報が割り当てられる。ここで図11は、ビデオトラックのサンプルディスクリプションアトム(sample description)を示す図表である。なおこの図11及び続く図12においては、括弧書により各フィールドのデータ量をバイト数で示す。
ビデオトラックのサンプルディスクリプションアトム(sample description)においては、サンプルディスクリプションアトム(sample description)のサイズ(Size)、タイプ名(stsd)、バージョン、フラグが順次割り当てられる。またこのサンプルディスクリプションアトム(sample description)のエントリ数(number of Entries )が割り当てられ、このエントリ数の分だけ、データ圧縮方式、関連する情報によるエントリ(Video
sample description entry)が割り当てられる。
また各エントリ(Video sample description entry)においては、各エントリ(Video
sample description entry)のサイズ(Size)が割り当てられ、続くデータフォーマット(Data Format )によりデータ圧縮方式が記述される。なお各エントリ(Video sample description entry)においては、このデータフォーマット(Data Format )に関連する情報として、1サンプルに割り当てるフレーム数を記述するフィールド(Frame Count )等が割り当てられる。
これに対してエフェクトトラックのサンプルディスクリプションアトム(sample description)においては、図11との対比により図12に示すように、ビデオトラックのサンプルディスクリプションアトム(sample description)と同様に、サイズ(Size)、タイプ名(stsd)、バージョン、フラグ、エントリ数(number of Entries )が割り当てられ、続いて所定数だけエフェクトに係るエントリ(Effect sample description entry )が割り当てられる。
ここで各エフェクトに係るエントリ(Effect sample description entry )は、各エントリのサイズ(Size)が割り当てられ、続くデータフォーマット(Data Format )にエフェクトの種別が記述される。ここで図13に示すように、このエフェクト種別にあっては、アルファベット4文字により記述され、ぼかし(Blur(blur))、カラースタイル(Color Style (solr))、色合い(Color Tint( tint ))、エッジ検出(Edge Detection(edge))、エンボス(Emboss(embs))、 HSLバランス(HSL Color Balance (hslb))、RGBバランス(RGB Color Balance (rgbb))、シャープネス(Sharpen (shrp))、明度とコントラスト(Brightness and Contrast(brco))等が1ソースエフェクト用に割り当てられるようになされている。なお、説明は省略するが、2ソースエフェクト用として、クロマキー、クロスフェード、プッシュ、スライド、アルファ合成、ズーム、SMPTE(Society of Motion Picture and Television Engineers) 定義のワイプ・アイリス・ラジアル・マトリクス等が割り当てられている。この実施例においては、このエフェクト種別に、ポスタリゼーション(Posterization (YPST))、モザイク(Mosaic(MOSA))、ネガポジ(RGB Reverse (Negative)(NEGA))、ランダムドット(Random Dot(RDOT))、ユーザー定義エフェクト(User Defined Effect (UDEF))がさらに割り当てられる。
ここでポスタリゼーション(Posterization (YPST))は、輝度の階調数を低下させる処理であり、またモザイク(Mosaic(MOSA))は、モザイクによる処理であり、ネガポジ(RGB Reverse (Negative)(NEGA))は、ネガポジ反転の処理である。またランダムドット(Random Dot(RDOT))は、ランダムにドットを配置して画面を切り換える2ソース処理である。これによりこの実施例では、一段と使い勝手を向上するようになされている。
これに対してユーザー定義エフェクト(User Defined Effect (UDEF))は、この実施例による機器などを提供するメーカーなどが独自に拡張定義したエフェクト種別用の大別識別である。このユーザー定義エフェクト(User Defined Effect (タイプ名UDEF))は、エフェクトの詳細種別が後述するデータフォーマットの拡張情報を記述する為に用意される拡張アトムにより定義され、これによりこの拡張アトムにより定義されている場合にのみ、実質的に意味を有するようになされている。
各エフェクトに係るエントリ(Effect sample description entry )は、さらにリザーブ、データリファレンスインデッス等の、ビデオトラックにおけるエントリと同一のフィールドが連続し、末尾に、データフォーマットの拡張情報を記述する為に用意される拡張アトムが割り当てられる。
ここでこのデータフォーマットの拡張情報を記述する為に用意される拡張アトムは、ストリームディスクリプタアトム(Stream Descriptor atom)が割り当てられ、このストリームディスクリプタアトム(Stream Descriptor atom)が、図14に示すように記述される。すなわちストリームディスクリプタアトム(Stream Descriptor atom)は、ストリームディスクリプタアトム(Stream Descriptor atom)のサイズ、タイプ(strd)、バージョン、フラグが順次割り当てられる。続いてデータフォーマットの拡張情報として具体的なデータのフィールドが設けられ、ここにデータフォーマット(Data Format )、ユーザー定義エフェクトタイプ(User Defined Effect Type)、パラメータフラグ(Parameter
Flag)のフィールドが設けられる。なお、バージョン、フラグは、将来の拡張を考慮して確保しているもので、本実施例においては双方とも0x0の値が割り当てられる。
ここでこの拡張のフィールドにおけるデータフォーマット(Data Format )には、図12及び図13について上述した各エフェクトに係るエントリ(Effect sample description entry )のデータフォーマット(Data Format )に係るフィールドに記述したエフェクト種別(タイプ名)がそのまま同じく、この拡張アトム内にも記述される。
ユーザー定義エフェクトタイプ(User Defined Effect Type)には、ユーザー定義に係る具体的なエフェクト種別が記述される。ここでユーザー定義エフェクトタイプ(User Defined Effect Type)は、4バイトのフィールドにより形成され、図15に示すように、このフィールドが2バイトづつに区切られて、それぞれオーナーID、エフェクトIDが割り当てられる。
ここでオーナーIDは、各メーカー毎に予め割り振られたメーカー名を特定するIDであり、エフェクトIDは、メーカーが独自に定義した詳細エフェクト名を特定するIDが割り当てられる。これによりこの実施例では、このQTフォーマットを柔軟に運用してメーカーが開発した種々のエフェクトを迅速に実装し得るようになされている。すなわち、各エフェクトに係るエントリ(Effect sample description entry )のデータフォーマット(Data Format )フィールドにて、メーカーが独自に拡張定義したエフェクトを指定していることを示す大別識別子としてユーザー定義エフェクト(User Defined Effect (UDEF))を割り当て、拡張アトム内にてこのようなエフェクト名のフィールドを2バイト単位で区切ってオーナーID、エフェクトIDにより独自定義に係るエフェクト詳細種別を定義できるようにしたことにより、独自拡張定義するエフェクト種別を新規定義するメーカー内で閉じることができ、このフィールドに割り当てられるコードの重複を未然に防止して運用管理することができる。実際上、このようなオーナーID、エフェクトIDによる設定を設けることなく、独自拡張のエフェクトを規定するようにすると、新規定義したいメーカー間での4文字アルファベット重複、申請順番等の管理が煩雑になる。加えて、拡張アトムすらも導入せずに、各エフェクトに係るエントリ(Effect sample description entry )のデータフォーマット(Data Format )フィールドのみで、メーカーが独自に拡張定義したいエフェクトを指定するとなると、更に困難を伴うことになる。なおこのデータフィールドのオーナーID、エフェクトIDにおいて、その値として0x0はリザーブに割り当てられ、図13について上述したデータフォーマットに係るフィールドのエフェクト種別にユーザー定義エフェクト(User Defined Effect (UDEF))を設定した場合には、使用できないようになされている。また、ユーザー定義エフェクト(User Defined Effect (UDEF))以外の既存定義済みエフェクト種別を設定した場合には、このオーナーID、エフェクトIDに記述される値は意味を持たない。従って、既存定義済みエフェクト種別を設定する際、通常はリザーブとした0x0を与える。
パラメータフラグ(Parameter Flag)は、図16に示すように、2バイトのうちの最下位1ビットを用いて、このエフェクトトラックに対応する実データにおけるエフェクトパラメータを設定したエフェクトサンプルエントリが有効か否かを設定できるようになされている。しかしてこの設定においては、対応するパラメータのエフェクトサンプルエントリによりエフェクト処理した場合にあって、エフェクト処理の前後で何らビデオデータによる画像が変化しない場合に、このパラメータのエフェクトサンプルエントリを無効と設定されるようになされている。これによりこの実施例では、このフラグの設定により、後述する無駄な処理を省略して負担を軽減するようになされている。なお、このパラメータフラグ(Parameter Flag)の上位15ビットは、将来拡張用としてリザーブとされている。
これに対してムービーデータアトムに割り当てられるエフェクトトラックの実データは、ソーストラックのビデオデータと同じく、エフェクトサンプル毎に格納される。エフェクトトラックは、サンプルディスクリプションアトム(Sample Description)のデータフォーマットフィールドでエフェクト種別が種別毎に定義され、エフェクトトラックの実データは、このサンプルディスクリプションアトムによる各種別によるエフェクト処理のパラメータデータが格納されるようになされている。
図17及び図18は、このムービーデータアトムに割り当てられるパラメータをエフェクト種別との対応により示す図表である。各パラメータ名は、それぞれパラメータタイプの4文字により表されるようになされている。各パラメータ値は、ムービーデータアトム内にパラメータタイプを特定するタイプ名をヘッダ識別子として、各々格納される。
ここで例えばエフェクト種別、明度とコントラスト(Brightness and Contrast(brco))においては、そのパラメータとしてブライトネス(Brightness)及びコントラスト(Contrast)を設定し得、この各パラメータと共に標準値に相当する値0に設定すると、結果として、エフェクト処理結果においては、明度、コントラストとも上げ下げせず、そのまま出力され何ら変化しないものとなる。しかしてこのようなエフェクトの効果が現れないものをヌルエフェクトと呼び、エフェクトの効果が現れるものをアクティブエフェクトと呼ぶ。これにより上述したパラメータフラグ(Parameter Flag)は、ヌルエフェクトで値0に設定され、アクティブエフェクトで値1に設定されるようになされている。
(1−3)QTファイルの処理
これらによりこのビデオディスク装置1では、撮像手段等から入力される実データであるビデオデータ及びオーディオデータによるエレメンタリストリームDV、DAをファイル生成器15で多重化して光ディスク2に記録し、これによりムービーデータアトムを順次記録する。またこのムービーデータアトムによる実データの記録に対応して管理情報を順次取得してファイル生成器15のメモリ15Aに保持し、実データの記録の終了により、メモリ15Aに保持した管理情報によりムービーアトムを作成して光ディスク2に記録するようになされている。
システム制御マイコン19は、所定の処理手順の実行によりファイル生成器15等の動作を制御することにより、またメモリ15Aに記録された管理情報を処理することにより、このようなムービーデータアトム、ムービーアトムの記録に係る全体の動作を制御する。これにより図19に示すように、ビデオディスク装置1においては、このような撮像結果の記録により、撮像結果に係るビデオデータ及びオーディオデータによる実データをムービーデータアトムに設定し、この実データの管理情報によりそれぞれビデオトラックvt、オーディオトラック(図示せず)をムービーアトムに設定してなるQTファイルF4が記録される。
このようにして光ディスク2に記録した撮像結果に関して、ユーザーにより編集の動作モードが選択されると、システム制御マイコン19は、所定のメニューを図示しない表示画面に表示し、このメニューの選択によりユーザーによる編集の各種指示を入力する。システム制御マイコン19は、これによりイン点、アウト点等の設定を受け付け、また各種エフェクトの選択等を受け付ける。またこのようにして編集処理したファイルの記録がユーザーにより指示されると、対応するファイルを光ディスク2に記録する。
この処理において、システム制御マイコン19は、ユーザーにより指示された編集対象に係るファイルF4のムービーアトムのビデオトラックvtに基づいて、エフェクトトラックETを作成し、このエフェクトトラックETにより元のファイルF4のムービーデータを参照する外部参照形式により編集結果のファイルF5を作成する。
すなわちシステム制御マイコン19は、編集対象のファイルF4のビデオトラックvtのトラックアトムをコピーしてビデオトラックVTを光ディスク2に記録する。またユーザーによる入力に応じて、このビデオトラックVTに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックETを作成し、またこのエフェクトトラックETの対象であるソーストラックSTをビデオトラックVTに設定する。
すなわち例えばユーザーが区間Tにおいて、フィルタリングに係るエフェクトを指示した場合、この区間Tをアクティブエフェクトの区間に設定し、何らエフェクトが指示されていない区間をヌルエフェクトの区間に設定する。また図1に示すように、これらアクティブエフェクト、ヌルエフェクトのエフェクトサンプルについて、サンプルディスクリプションアトムにそれぞれエントリを作成し、このエントリにおいてそれぞれアクティブエフェクト、ヌルエフェクトに対応する処理を実行するように設定してエフェクトトラックを作成する。
またビデオトラックをソーストラックとして指し示すように、トラックインプットマップアトム、トラックリファレンスアトムを設定する。
これによりシステム制御マイコン19においては、このような1ソースエフェクトに係る編集処理においては、再生時、ソーストラックとエフェクトトラックとの2つトラックのハンドリングにより処理できるように編集処理結果のファイルF5を作成するようになされ、その分、再生時の負担を軽減するようになされている。
これに対してシステム制御マイコン19は、ユーザーが2ソースエフェクトに係る処理を指示した場合、図20に示すように、同様のアクティブエフェクト、ヌルエフェクト、ソーストラックの設定により編集結果のファイルF6を作成する。
すなわちこの場合、2ソースエフェクトに係る処理対象の2つのビデオトラックVT1及びVT2のトラックアトムをコピーにより作成し、ユーザーによるイン点及びアウト点の設定に応じて、各ビデオトラックVT1及びVT2の区間Tをアクティブエフェクトの区間に設定し、何らエフェクトが指示されていない他の区間をヌルエフェクトの区間に設定する。
また図10に示すように、これらアクティブエフェクト、ヌルエフェクトのエフェクトサンプルについて、サンプルディスクリプションアトムにそれぞれエントリを作成し、このエントリにおいてそれぞれアクティブエフェクト、ヌルエフェクトに対応する処理を実行するように設定してエフェクトトラックETを作成する。またこの2ソースエフェクトに係るヌルエフェクトについては1ソースエフェクトに係るヌルエフェクトの設定を適用する。その際、この例では、エフェクトトラックの最初のヌルエフェクトサンプルはソーストラックにST1を指定し、アクティブエフェクト区間後のヌルエフェクトサンプルはソーストラックにST2を指定する。
またビデオトラックVT1及びVT2をソーストラックST1、ST2として指し示すように、トラックインプットマップアトム、トラックリファレンスアトムを設定する。
これによりシステム制御マイコン19においては、このような2ソースエフェクトに係る編集処理においては、再生時、2つのソーストラックST1、ST2とエフェクトトラックとの3つのトラックのハンドリングにより処理できるように編集処理結果のファイルF6を作成するようになされ、その分、編集処理に係る負担を軽減するようになされている。
しかしてこのようなヌルエフェクトの設定においては、何らエフェクトの効果が現れないようにパラメータを設定することにより実行することができる。しかしながらこの場合、再生時、ヌルエフェクトにおいても、ムービーデータアトムに設定された対応するパラメータをアクセスして取得し、この取得したパラメータによりビデオデータを処理することが必要になる。
このためシステム制御マイコン19においては、パラメータフラグ(Parameter Flag)(図16)の設定により、ムービーデータアトム中のパラメータ値を参照せずともムービーアトムによる管理情報だけで、ヌルエフェクトに係るエントリとアクティブエフェクトに係るエントリとを識別可能に設定する。
これによりシステム制御マイコン19では、再生時、パラメータフラグ(Parameter Flag)に基づいてヌルエフェクトを検出できるように設定し、このヌルエフェクトの検出により、ヌルエフェクトについては、対応するパラメータを再生しなくても正常に処理できるようにし、再生時における負担を軽減できるようになされている。
システム制御マイコン19は、このようにパラメータフラグ(Parameter Flag)に基づいてヌルエフェクトを処理できるように設定した上で、ヌルエフェクトについては、標準のエフェクト名(例えば、Brightness and Contrast(brco) )、パラメータ(例えば、Brightness=0、Contrast=0)によりエフェクトサンプルを形成し、これによりこのようなパラメータフラグ(Parameter Flag)に基づいてヌルエフェクトを処理するように構成されていない従来からのQTファイルに係るアプリケーションによっても、編集結果のファイルF5、F6を正常に再生できるようになされている。
システム制御マイコン19は、このようにして設定される各エントリのうち、アクティブエントリについては、ユーザーの選択したエフェクトの種類に応じてエフェクト種別を設定する。またこのエフェクトの種類がこのビデオディスク装置1に係るメーカーのオリジナルのエフェクトの場合、エフェクトタイプをユーザー定義エフェクトに係るエフェクト種別に設定し、拡張したフィールドにオーナーID、エフェクトIDを設定してエフェクトの種類を特定する。これによりこの実施例では、柔軟に各種エフェクトを実装できるようになされている。
これに対してこのようにしてエフェクトトラックを設定してなる編集結果によるQTファイルの再生が指示されると、システム制御マイコン19は、再生系の動作を制御してユーザーにより指示されたQTファイルからムービーアトムを逐次再生し、このムービーアトムの記録に基づいてムービーデータアトムを再生する。
この処理により、システム制御マイコン19においては、編集結果によるQTファイルについては、エフェクトトラックのトラックリファレンスアトムとトラックインプットマップアトムの記録に基づいて、ソーストラックを再生する。このとき図21及び図22に示すように、それぞれ1ソースエフェクト及び2ソースエフェクトにおいて、元のビデオトラックからエフェクトを掛けたい区間に相当する部分のみをコピーして作成したソーストラックと、元のビデオトラックが設けられている場合には、各トラックアトムに設けられたエディットアトムの記述に従って、これらビデオトラック、ソーストラック、エフェクトトラックをハンドリングし、ソーストラックによるビデオデータをエフェクトトラックにより処理する。またビデオトラックによるビデオデータとの間でレイヤーを切り換えて処理結果を出力し、これにより従来構成に係るQTファイルの編集結果を再生する。すなわち、アクティブエフェクト区間以外は元のビデオトラック出力が最前面に表示され、アクティブエフェクト区間はソーストラックにエフェクト処理を施すエフェクトトラックからの出力が最前面に表示される。
これに対して図19及び図20に示すように、元のビデオトラックがソーストラックに設定され、ヌルエフェクト及びアクティブエフェクトによりエフェクトトラックが形成されている場合には、このエフェクトトラックに設定されたヌルエフェクト及びアクティブエフェクトによりソーストラックにより再生されるビデオデータを処理しながら、処理結果によるビデオデータを出力する。これにより従来構成によるQTファイルの場合では、それぞれ1ソースエフェクト及び2ソースエフェクトにおいて、3トラック及び5トラックをハンドリングすることが必要なのに対し、この実施例に係るQTファイルでは、それぞれ2トラック及び3トラックのハンドリングにより編集結果を再生することができ、その分、編集結果に係る再生系、システム制御マイコン19等に係る負担を軽減することができるようになされている。
このようなヌルエフェクト、アクティブエフェクトに係る処理において、システム制御マイコン19は、エフェクトトラックのサンプルディスクリプションアトムに拡張フィールド(ストリームディスクリプタアトム)が設定されているか否か判断し、ここで拡張フィールドが設定されている場合には、この拡張フィールドに設定されたパラメータフラグ(Parameter Flag)の設定を判定し、これによりこのフラグの設定によりヌルエフェクト、アクティブエフェクトを判定する。またアクティブエフェクトとの判定結果が得られた場合、ムービーデータアトムに設定されている対応する実データであるエフェクトの処理に係るパラメータのデータを再生し、このパラメータによりエフェクトの処理を実行する。これに対してヌルエフェクトとの判定結果が得られた場合、何ら実データを再生することなく、ソーストラックによる対応するビデオデータを何ら処理することなく出力する。
これによりこのビデオディスク装置1では、このようヌルエフェクトに係るムービーデータアトムからのパラメータの再生を中止して、さらには再生したパラメータによる処理を中止して、その分、負担を軽減するようになされている。
しかしてこのパラメータフラグ(Parameter Flag)の設定によりアクティブエフェクトと判定してムービーデータアトムから対応するパラメータを再生した場合でも、このパラメータがエフェクトによる変化が現れない値に設定されている場合、結局、ヌルエフェクトに相当することにはなるが、ソーストラックによるビデオデータを処理することになる。これにより拡張フィールドを追加するなどしてパラメータフラグ(Parameter Flag)を設定していない場合であっても、上述したように、エフェクトトラックをビデオトラック(ソーストラックとして)に対応するように作成してヌルエフェクト、アクティブエフェクトを設定する場合にあっては、ハンドリングに係るトラック数を少なくして負担を軽減することができることになる。
システム制御マイコン19は、これにより従来フォーマットによるQTファイル等において、拡張フィールドが設定されていない場合には、パラメータフラグ(Parameter Flag)の設定によりアクティブエフェクトと判定した場合と同様に、対応するパラメータのデータを再生し、このパラメータによりエフェクトの処理を実行するようになされている。
またシステム制御マイコン19は、このようにしてエフェクトトラックに設定された各エフェクト種別によりビデオデータを処理して出力する際に、エフェクト種別がユーザー定義エフェクトに係るエフェクト種別に設定されている場合、拡張したフィールドのオーナーID、エフェクトIDを判定する。この判定結果により、オーナーID、エフェクトIDにより特定されるエフェクトの種類にこのビデオディスク装置1では対応できない場合、システム制御マイコン19においては、ヌルエフェクトの場合と同様に、何らビデオデータを処理することなく出力することもあり得る。これに対してこのオーナーID、エフェクトIDにより特定されるエフェクトの種類に対応可能な場合、すなわちこのエフェクトの処理に係るプログラムであるモジュールが組み込まれている場合等にあっては、このオーナーID、エフェクトIDにより特定されるエフェクトによりビデオデータを処理して出力する。
(2)実施例の動作
以上の構成において、このビデオディスク装置1では、撮像手段で取得されるビデオ信号DV1がビデオ符号器11によりデータ圧縮されて可変レートによりファイル生成器15に入力され、またマイク等で取得されるオーディオ信号DA1がオーディオ符号器12によりデータ圧縮されてファイル生成器15に入力され、ここでQTファイルに変換されて続く一連の構成により光ディスク2に記録される。
このファイル生成器15における処理において、ビデオデータ及びオーディオデータは、サンプル、チャンクにまとめられ、チャンク毎にインターリーブされてムービーデータアトムのデータとして出力され、光ディスク2に記録される。ビデオデータ及びオーディオデータは、このようにして順次処理されながら、各サンプル、各チャンクの再生に必要な情報が取得されて管理情報としてメモリ15Aに蓄積され、実データであるムービーデータアトムの記録が完了すると、このメモリ15Aに記録された管理情報によるムービーアトムのデータが記録手段に出力され、ムービーデータアトムに対応するムービーアトムが光ディスク2に記録される。ビデオデータ及びオーディオデータは、これによりQTファイルとして光ディスク2に記録される。またこのようにして記録されたQTファイルにおいては、ムービーデータアトムに割り当てられた実データであるビデオデータ及びオーディオデータを管理する管理情報が階層構造によりまとめられて、ビデオデータの管理情報によるビデオトラックと、オーディオデータの管理情報によるサウンドトラックとがムービーアトムに設けられて形成される。
このようにして光ディスク2に記録されたQTファイルは、ユーザーによる再生の指示によるシステム制御マイコン19の制御により、光ディスク2からムービーアトムのデータが再生され、このムービーアトムに設定された管理情報により順次ムービーデータアトムのデータが光ディスクより再生されて元のビデオデータ及びオーディオデータにデコードされ、デコードされたビデオデータ及びオーディオデータがビデオ復号器13、オーディオ復号器14より出力される。これによりこのビデオディスク装置1では、撮像結果を確認して、例えば編集処理等を実行することができる。
しかしてこのようにして記録したQTファイルについてビデオデータの編集がユーザーにより指示されると、編集対象のQTファイルよりムービーアトムが再生され、このムービーアトム中の対象とするビデオのトラックアトムのコピーにより編集結果のQTファイルについて、ソーストラックの役割も担うビデオトラックが形成される。またこのビデオトラックについては、元のQTファイルの対応するビデオデータを実データに設定してなるように、絶対パス等が設定され、これらの処理により元のQTファイルのムービーデータアトムを外部参照形式にしてなるQTファイルが作成される。
またユーザーによるイン点、アウト点、エフェクト種別の指定等により、このコピーによるビデオトラックを有してなるQTファイルにエフェクトトラックが形成される。このエフェクトトラックにおいては、ビデオトラックに対応するように作成されて、ユーザーによる入力に応じて、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して形成される。またコピーによるビデオトラックをソーストラックに設定してなるように作成される。
これによりこのビデオディスク装置1においては、従来の編集結果に係るQTフォーマットを再生する場合には、元のビデオトラック、ソーストラック、エフェクトトラックをハンドリングすることが必要なところを、元のビデオトラックがエフェクトの為のソースとなる役割を兼ねるようにしたソーストラック、エフェクトトラックのハンドリングにより再生し得、その分、編集結果の再生に係る負担を軽減することができる。
すなわちエフェクトトラックにおけるトラックリファレンスアトム、トラックインプットマップアトムがソーストラックを指し示すように設定され、またサンプルディスクリプションアトムにおいては、このようなヌルエフェクトをも含む各エフェクトに対応するように、順次、エフェクト種別等が設定されてエフェクトトラックが作成される。またこのエフェクトトラックにおけるサンプルディスクリプションアトムの設定に対応して、エフェクトトラックに係る実データである各エフェクトのパラメータが、この編集結果に係るQTファイルのムービーデータアトムに割り当てられる。
このようなエフェクトが1ソースエフェクトの場合、これにより1つのソーストラックSTを指し示すように設定されて、1ソースエフェクトに係るヌルエフェクトと、1ソースエフェクトに係るアクティブエフェクトとによる処理を指示するようにエフェクトトラックETが作成される(図1)。またこのようなエフェクトが2ソースエフェクトの場合、2つのソーストラックST1、ST2を指し示すように設定されて、1ソースエフェクトに係るヌルエフェクトと、2ソースエフェクトに係るアクティブエフェクトとによる処理を指示するようにエフェクトトラックETが作成される(図10)。
これにより再生時においては、1ソースエフェクトの場合(図19)、エフェクトトラックによりソーストラックに係るビデオデータを順次再生すると共に、この再生したビデオデータをヌルエフェクトにより処理して出力することができ、また実際のエフェクトの期間Tにおいては、アクティブエフェクトに設定されていることにより、対応する処理によるソーストラックによるビデオデータを処理して出力し、これにより2つのトラックのハンドリングにより編集結果を再生することができる。
また2ソースエフェクトの場合(図20)、エフェクトトラックにより2つのソーストラックに係るビデオデータを編集に係る順序により再生して、一方のビデオデータのみを出力する場合には、ヌルエフェクトにより処理して出力し、トランジションに係る区間Tにおいては、双方のビデオデータをアクティブエフェクトに係る処理により処理して出力し、これによりこの場合、3つのトラックのハンドリングにより編集結果を出力することができる。
ビデオディスク装置1では、このようにしてエフェクトトラックを作成する際に、対応するエフェクトに係るエントリが拡張されて、この拡張されたフィールドにヌルエフェクトとアクティブエフェクトとの識別フラグが設定される。これによりこのようにして作成された編集結果のQTファイルにおいては、このような識別フラグの設定に対応する処理により再生する場合には、ヌルエフェクトについては、いちいちムービーデータアトムに設定された実データであるパラメータを取得しなくても処理し得、加えてエフェクト処理の計算もする必要なく、その分、ムービーデータアトムの再生に係る処理、再生したパラメータによる処理を省略して、編集結果の処理に係る負担を軽減できるようになされている。
すなわちビデオディスク装置1では、再生時、この拡張されたフィールドに設定された識別フラグによりアクティブエフェクトと判定される場合、ムービーデータアトムの実データをアクセスしてこのアクティブエフェクトに係るパラメータを取得する。またこのエフェクトに係るエントリのエフェクトに応じて、この取得したパラメータにより対応するビデオデータを処理して出力する。
これに対してこの再生時、この拡張されたフィールドに設定された識別フラグによりヌルエフェクトと判定される場合、ムービーデータアトムの実データのアクセスを中止し、このヌルエフェクトに係るビデオデータを何らエフェクト処理することなく出力する。
これに対して従来のフォーマットに係るQTファイルにおいては、このような拡張のフィールドが設けられていないことにより、このような拡張のフィールドが設けられていない場合には、従来と同様に、エフェクト種別を検出し、またムービーデータアトムからパラメータを取得し、これらにより対応するビデオデータを処理して出力する。
またビデオディスク装置1では、ユーザーが選択したエフェクトの種類が、このビデオディスク装置1に係るオリジナルのエフェクトの場合、エフェクトに係るエントリに元々設けられているエフェクト種別のフィールドには、ユーザー定義エフェクトに係るエフェクト種別が設定され、拡張したフィールドにオーナーID、エフェクトIDが設定され、このオーナーID、エフェクトIDにより具体的なエフェクトの種類が指示される。
これによりこの実施例では、このQTフォーマットを柔軟に運用してメーカーが開発した種々のエフェクトを迅速に実装し得るようになされている。
すなわちこのような拡張したフィールドに設けたエフェクト名のフィールドを2バイト単位で区切ってオーナーID、エフェクトIDにより独自定義に係るエフェクト名を定義できるようにしたことにより、独自拡張定義するエフェクト種別を新規定義するメーカー内で閉じることができ、このフィールドに割り当てられるコードの重複を未然に防止して運用管理することができる。実際上、このようなオーナーID、エフェクトIDによる設定を設けることなく、独自拡張のエフェクトを規定するようにすると、新規定義したいメーカー間での4文字アルファベット重複、申請順番等の管理が煩雑になる。これによりこのビデオディスク装置1では、ヌルエフェクトに係るエントリの拡張を有効に利用して、併せてエフェクト種別を柔軟に定義して使用できるようになされている。
しかしてこのビデオディスク装置1では、これにより再生時、エフェクトに係るエントリに元々設けられているエフェクト種別のフィールドに設定されたエフェクト種別によりビデオデータを処理する。この処理において、このエフェクト種別がユーザー定義エフェクトに係るエフェクト種別である場合、拡張したフィールドのオーナーID、エフェクトIDを検出し、実行可能なエフェクトか否か判定する。ここで実行可能なエフェクトの場合、実データによるパラメータを取得して対応する処理を実行する。これに対して実行困難な場合、すなわち例えば他社により定義されたエフェクトで再現対応していない等の場合、何らソーストラックによるビデオデータを処理することなく出力することもあり得る。
(3)実施例の効果
以上の構成によれば、ビデオデータの管理情報によるビデオトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定してエフェクトトラックを作成すると共に、このエフェクトトラックの対象であるソーストラックをビデオトラックに設定してファイルを作成することにより、QTフォーマットによるファイルについての編集及び、その結果を再生する処理に係る負担を軽減することができる。
具体的にこのエフェクトが1ソースエフェクトであり、この1ソースエフェクトに係るソーストラックが1つのビデオトラックであることにより、1ソースエフェクトに係る処理を2つのトラックのハンドリングにより実行し得、編集及び、その結果を再生する処理に係る負担を軽減することができる。
またこのエフェクトが2ソースエフェクトであり、この2ソースエフェクトに係るソーストラックが2つのビデオトラックであることにより、2ソースエフェクトに係る処理を3つのトラックのハンドリングにより実行し得、編集及び、その結果を再生する処理に係る負担を軽減することができる。
またこのエフェクトを特定する情報を設定するフィールドであるサンプルディスプリプションアトムを拡張して、ヌルエフェクトとアクティブエフェクトとを識別するフラグを設定したことにより、ヌルエフェクトに関する無駄なムービーデータアトムのアクセス、このアクセス結果によるビデオデータの無駄な処理を防止することができ、これにより一段と編集及び、その結果を再生する処理に係る負担を軽減することができる。
またユーザーにより選択された特定のエフェクトについては、エフェクトの種類を特定する情報のフィールドに特定のコードを設定し、フィールドを拡張してエフェクトの種類を特定するコードを設定することにより、すなわちエフェクトに係るエントリに元々設けられているエフェクト種別のフィールドには、ユーザー定義エフェクトに係るエフェクト種別を設定し、拡張したフィールドにより具体的なエフェクト種別を特定することにより、このQTフォーマットを柔軟に運用してメーカーが開発した種々のエフェクトを迅速に実装することができる。
またこの拡張に係るエフェクト種別については、メーカー毎に割り当てられたコードであるオーナーIDと、該メーカーが定義した独自のエフェクトのコードであるエフェクトIDにより表すことにより、メーカー間によるエフェクト種別を表すコードの重複等による混乱を有効に回避することができる。
具体的に、このフォーマットに係るファイルがQTフォーマットのファイルであり、拡張に係るフィールドを、サンプルディスクリプションアトムの対応するエフェクトに係るエントリに設けることにより、簡易な処理により、従来フォーマットによるQTファイルと互換性を維持しつつ、編集及び、その結果を再生する処理に係る負担を軽減することができる。
またこのような記録時に係る設定に対応して、特に再生時、フラグの設定により、ヌルエフェクトにおいては、エフェクトトラックの実データのアクセスを中止すると共に、ソーストラックによるビデオデータのエフェクト処理を中止することにより、具体的に、再生時に係る負担を軽減することができる。
またエフェクトの種類を特定する情報に基づいて、対応する実データによりビデオデータを処理して出力するようにして、エフェクトの種類を特定する情報のフィールドに特定のコードが設定されている場合には、拡張して設定されたエフェクトの種類を特定するコードを検出し、このコードに対応可能な場合には、このコードに従ってビデオデータを処理して出力し、このコードに対応困難な場合には、ビデオデータを処理することなく出力することにより、独自使用によりエフェクト種別を各メーカーが設定する場合にあっても、柔軟に編集結果のファイルを処理することができる。
なお上述の実施例においては、QTファイルによるビデオディスク装置に本発明を適用する場合について述べたが、本発明はこれに限らず、例えばQTフォーマットを基準にしたISO Base Mediaファイルフォーマット(MPEG4−part12)、 Motion JPEG2000(MJ2)ファイルフォーマット、AVC(Advanced Video Coding :MPEG4−part10)ファイルフォーマット等、QTファイルと同様の構造によるファイルの記録装置、再生装置に広く適用することができる。
また上述の実施例においては、本発明をビデオディスク装置に適用して光ディスクにQTファイルを記録する場合について述べたが、本発明はこれに限らず、磁気ディスク、メモリカード等、種々の記録媒体に記録する場合にも広く適用することができる。
また上述の実施例においては、本発明をビデオディスク装置に適用した場合について述べたが、本発明はこれに限らず、撮像機能を有する携帯電話、PDA(Personal Digital Assistants )、さらには有線、無線により得られる撮像結果を記録するサーバー等、要はビデオデータを記録する各種記録装置、さらにはパーソナルコンピュータのように、撮像結果等のビデオデータファイルを編集処理する種々の装置に広く適用することができる。
本発明は、例えばQTフォーマットのファイルによる撮像結果を編集及び、その結果を再生する場合等に適用することができる。
本発明の第1の実施例に係るビデオディスク装置における1ソースエフェクトの説明に供する図表である。 本発明の第1の実施例に係るビデオディスク装置を示すブロック図である。 QTファイルの説明に供する略線図である。 QTファイルのアトム構造を示す略線図である。 QTファイルの1ソースエフェクトの為のビデオトラックのアトム構造を示す図表である。 図5の続きを示す図表である。 QTファイルの2ソースエフェクトの為のアトム構造を示す図表である。 図7の続きを示す図表である。 図8の続きを示す図表である。 図1のビデオディスク装置における2ソースエフェクトの説明に供する図表である。 ビデオトラックのサンプルディスクリプションアトムを示す図表である。 エフェクトトラックのサンプルディスクリプションアトムを示す図表である。 エフェクト種別の説明に供する図表である。 エフェクトトラックにおけるサンプルディスクリプションアトムに係る拡張のフィールドを示す図表である。 図14のエフェクト種別のフィールドを示す図表である。 図14のパラメータフラグの内容を示す図表である。 図13のエフェクト種別に対応するパラメータを示す図表である。 図17の続きを示す図表である。 1ソースエフェクトに係るQTファイルの説明に供する図表である。 2ソースエフェクトに係るQTファイルの説明に供する図表である。 従来の1ソースエフェクトに係るQTファイルのハンドリングの説明に供する図表である。 従来の2ソースエフェクトに係るQTファイルのハンドリングの説明に供する図表である。
符号の説明
1……ビデオディスク装置、2……光ディスク、11……ビデオ符号器、12……オーディオ符号器、15……ファイル生成器、15A、17、20……メモリ、19……システム制御マイコン

Claims (21)

  1. ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録装置において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記ファイル記録装置は、
    前記ユーザーによる入力に応じて、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して前記エフェクトトラックを作成すると共に、前記エフェクトトラックの対象であるソーストラックを前記ビデオのトラックに設定して前記ファイルを作成する
    ことを特徴とするファイル記録装置。
  2. 前記エフェクトが1ソースエフェクトであり、
    前記1ソースエフェクトに係る前記ソーストラックが1つの前記ビデオのトラックである
    ことを特徴とする請求項1に記載のファイル記録装置。
  3. 前記エフェクトが2ソースエフェクトであり、
    前記2ソースエフェクトに係る前記ソーストラックが2つの前記ビデオのトラックである
    ことを特徴とする請求項1に記載のファイル記録装置。
  4. 前記エフェクトトラックの管理情報が、前記エフェクトを特定する情報であり、
    前記エフェクトトラックの実データが、前記エフェクトに係るパラメータであり、
    前記エフェクトを特定する情報のエントリを拡張して、前記ヌルエフェクトと前記アクティブエフェクトとを識別するフラグを設定する
    ことを特徴とする請求項1に記載のファイル記録装置。
  5. 前記エフェクトトラックの管理情報が、前記エフェクトの種類を特定する情報であり、
    前記ユーザーにより選択された特定のエフェクトについては、前記エフェクトの種類を特定する情報のフィールドに特定のコードを設定し、フィールドを拡張してエフェクトの種類を特定するコードを設定する
    ことを特徴とする請求項1に記載のファイル記録装置。
  6. 前記フィールドを拡張して設定されるエフェクトの種類を特定するコードが、メーカー毎に割り当てられたコードと、該メーカーが定義した独自のエフェクトのコードである
    ことを特徴とする請求項5に記載のファイル記録装置。
  7. 前記ファイルが、QTフォーマットのファイルであり、
    前記拡張に係るフィールドを、サンプルディスクリプションアトムの対応するエフェクトに係るエントリに設ける
    ことを特徴とする請求項6に記載のファイル記録装置。
  8. 所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生装置において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記エフェクトトラックは、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックが前記ビデオのトラックに設定され、
    前記ファイル再生装置は、
    前記エフェクトトラックに設定された管理情報に基づいて、前記ソーストラックによるビデオデータを再生しながらエフェクト処理して出力する
    ことを特徴とするファイル再生装置。
  9. 前記エフェクトトラックの管理情報が、前記エフェクトを特定する情報であり、
    前記エフェクトトラックの実データが、前記エフェクトに係るパラメータであり、
    前記エフェクトを特定する情報のエントリを拡張して、前記ヌルエフェクトと前記アクティブエフェクトとを識別するフラグが設定され、
    前記ファイル再生装置は、
    前記フラグの設定に応じて、前記ソーストラックにより再生されたビデオデータのエフェクト処理を中止して、該ビデオデータを出力する
    ことを特徴とする請求項8に記載のファイル再生装置。
  10. 前記フラグの設定に応じて、前記エフェクトトラックに対応する実データのアクセスを中止する
    ことを特徴とする請求項9に記載のファイル再生装置。
  11. 前記エフェクトトラックの管理情報が、前記エフェクトの種類を特定する情報であり、
    前記ユーザーにより選択された特定のエフェクトについては、前記エフェクトの種類を特定する情報のフィールドに特定のコードが設定され、フィールドを拡張してエフェクトの種類を特定するコードが設定され、
    前記ファイル再生装置は、
    前記エフェクトの種類を特定する情報に基づいて、対応する前記実データにより前記ビデオデータを処理して出力し、
    前記エフェクトの種類を特定する情報のフィールドに前記特定のコードが設定されている場合には、前記フィールドを拡張して設定された前記エフェクトの種類を特定するコードを検出し、
    該コードに対応可能な場合には、該コードに従って前記ビデオデータを処理して出力し、
    該コードに対応困難な場合には、前記ビデオデータを処理することなく出力する
    ことを特徴とする請求項8に記載のファイル再生装置。
  12. ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記ファイル記録方法は、
    前記ユーザーによる入力に応じて、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して前記エフェクトトラックを作成すると共に、前記エフェクトトラックの対象であるソーストラックを前記ビデオのトラックに設定して前記ファイルを作成する
    ことを特徴とするファイル記録方法。
  13. 前記エフェクトトラックの管理情報が、前記エフェクトを特定する情報であり、
    前記エフェクトトラックの実データが、前記エフェクトに係るパラメータであり、
    前記エフェクトを特定する情報のエントリを拡張して、前記ヌルエフェクトと前記アクティブエフェクトとを識別するフラグを設定する
    ことを特徴とする請求項12に記載のファイル記録方法。
  14. 前記エフェクトトラックの管理情報が、前記エフェクトの種類を特定する情報であり、
    前記ユーザーにより選択された特定のエフェクトについては、前記エフェクトの種類を特定する情報のフィールドに特定のコードを設定し、フィールドを拡張してエフェクトの種類を特定するコードを設定する
    ことを特徴とする請求項12に記載のファイル記録方法。
  15. コンピュータに所定の処理手順を実行させることにより、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法のプログラムにおいて、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記処理手順は、
    前記ユーザーによる入力に応じて、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して前記エフェクトトラックを作成すると共に、前記エフェクトトラックの対象であるソーストラックを前記ビデオのトラックに設定して前記ファイルを作成するステップを有する
    ことを特徴とするファイル記録方法のプログラム。
  16. コンピュータに所定の処理手順を実行させることにより、ユーザーによる入力を受け付けてビデオデータを編集し、編集結果によるファイルを記録するファイル記録方法のプログラムを記録した記録媒体において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記処理手順が、
    前記ユーザーによる入力に応じて、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して前記エフェクトトラックを作成すると共に、前記エフェクトトラックの対象であるソーストラックを前記ビデオのトラックに設定して前記ファイルを作成するステップを有する
    ことを特徴とするファイル記録方法のプログラムを記録した記録媒体。
  17. 所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記エフェクトトラックは、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックが前記ビデオのトラックに設定され、
    前記ファイル再生方法は、
    前記エフェクトトラックに設定された管理情報に基づいて、前記ソーストラックによるビデオデータを再生しながらエフェクト処理して出力する
    ことを特徴とするファイル再生方法。
  18. 前記エフェクトトラックの管理情報が、前記エフェクトを特定する情報であり、
    前記エフェクトトラックの実データが、前記エフェクトに係るパラメータであり、
    前記エフェクトを特定する情報のエントリを拡張して、前記ヌルエフェクトと前記アクティブエフェクトとを識別するフラグが設定され、
    前記ファイル再生方法は、
    前記フラグの設定に応じて、前記ヌルエフェクトにおいては、前記エフェクトトラックの実データの再生を中止して、再生された対応するビデオデータを処理することなく出力する
    ことを特徴とする請求項17に記載のファイル再生方法。
  19. 前記エフェクトトラックの管理情報が、前記エフェクトの種類を特定する情報であり、
    前記ユーザーにより選択された特定のエフェクトについては、前記エフェクトの種類を特定する情報のフィールドに特定のコードが設定され、フィールドを拡張してエフェクトの種類を特定するコードが設定され、
    前記ファイル再生方法は、
    前記エフェクトの種類を特定する情報に基づいて、対応する前記実データにより前記ビデオデータを処理して出力し、
    前記エフェクトの種類を特定する情報のフィールドに前記特定のコードが設定されている場合には、前記フィールドを拡張して設定された前記エフェクトの種類を特定するコードを検出し、
    該コードに対応可能な場合には、該コードに従って前記ビデオデータを処理して出力し、
    該コードに対応困難な場合には、前記ビデオデータを処理することなく出力する
    ことを特徴とする請求項17に記載のファイル再生方法。
  20. コンピュータに所定の処理手順を実行させることにより、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法のプログラムにおいて、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記エフェクトトラックは、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックが前記ビデオのトラックに設定され、
    前記処理手順は、
    前記エフェクトトラックに設定された管理情報に基づいて、前記ソーストラックによるビデオデータを再生しながらエフェクト処理して出力するステップを有する
    ことを特徴とするファイル再生方法のプログラム。
  21. コンピュータに所定の処理手順を実行させることにより、所定の記録媒体に記録されたビデオデータによるファイルを再生して出力するファイル再生方法のプログラムを記録した記録媒体において、
    前記ファイルは、
    実データを管理する管理情報が階層構造によりまとめられて、少なくとも前記ビデオデータの管理情報によるビデオのトラックと、前記ビデオデータに設定するエフェクトの管理情報によるエフェクトトラックとを有する管理情報のブロックと、
    少なくとも前記エフェクトトラックに係る実データを有する実データのブロックとを有し、
    前記エフェクトトラックは、
    前記ビデオのトラックに対応して、エフェクトの効果が現れないヌルエフェクトと、エフェクトの効果が現れるアクティブエフェクトとを設定して作成され、対象のソーストラックが前記ビデオのトラックに設定され、
    前記処理手順は、
    前記エフェクトトラックに設定された管理情報に基づいて、前記ソーストラックによるビデオデータを再生しながらエフェクト処理して出力するステップを有する
    ことを特徴とするファイル再生方法のプログラムを記録した記録媒体。

JP2003316251A 2003-09-09 2003-09-09 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体 Expired - Fee Related JP3835554B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2003316251A JP3835554B2 (ja) 2003-09-09 2003-09-09 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体
EP04748176A EP1667156B1 (en) 2003-09-09 2004-07-27 Flag enabling special effects in the header of the stream descriptor atom in a Quick Time video file.
CN2004800255734A CN1846266B (zh) 2003-09-09 2004-07-27 文件记录装置、文件再现装置、文件记录方法和文件再现方法
KR1020067004718A KR20060076769A (ko) 2003-09-09 2004-07-27 파일 기록장치, 파일 재생장치, 파일 기록방법, 파일기록방법의 프로그램, 파일 기록방법의 프로그램을 기록한기록 매체, 파일 재생 방법, 파일 재생 방법의 프로그램 및파일 재생 방법의 프로그램을 기록한 기록 매체
PCT/JP2004/011022 WO2005027133A1 (ja) 2003-09-09 2004-07-27 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体
DE602004023310T DE602004023310D1 (de) 2003-09-09 2004-07-27 Flag zur Freigabe von Spezieleffekte in dem stream descriptor atom in einem Quick Time Videodatei.
US10/570,811 US7702220B2 (en) 2003-09-09 2004-07-27 File recording device, file reproduction device, file recording method, program of file recording method, recording medium containing therein program of file recording method, file reproducing method, program of file reproducing method, and recording medium containing therein program of file reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003316251A JP3835554B2 (ja) 2003-09-09 2003-09-09 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2005085364A true JP2005085364A (ja) 2005-03-31
JP3835554B2 JP3835554B2 (ja) 2006-10-18

Family

ID=34308441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003316251A Expired - Fee Related JP3835554B2 (ja) 2003-09-09 2003-09-09 ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体

Country Status (7)

Country Link
US (1) US7702220B2 (ja)
EP (1) EP1667156B1 (ja)
JP (1) JP3835554B2 (ja)
KR (1) KR20060076769A (ja)
CN (1) CN1846266B (ja)
DE (1) DE602004023310D1 (ja)
WO (1) WO2005027133A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010895A (ja) * 2008-06-25 2010-01-14 Sony Corp データ処理装置およびデータ処理方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4281778B2 (ja) * 2006-10-13 2009-06-17 ソニー株式会社 撮像装置および撮像画像記録方法
US8489702B2 (en) 2007-06-22 2013-07-16 Apple Inc. Determining playability of media files with minimal downloading
CN103053157B (zh) * 2010-07-30 2017-05-24 诺基亚技术有限公司 用于确定和均衡媒体轨道的一个或多个段的方法和装置
US20140147100A1 (en) * 2011-06-30 2014-05-29 Human Monitoring Ltd. Methods and systems of editing and decoding a video file
US9173004B2 (en) * 2013-04-03 2015-10-27 Sony Corporation Reproducing device, reproducing method, program, and transmitting device
TWI630820B (zh) * 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
TWI630821B (zh) 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
CN112506412B (zh) * 2020-12-07 2022-09-30 北京达佳互联信息技术有限公司 视频编辑方法、装置及电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
US5682326A (en) 1992-08-03 1997-10-28 Radius Inc. Desktop digital video processing system
JP2000021137A (ja) * 1998-06-30 2000-01-21 Sony Corp 編集装置
JP2000295566A (ja) 1999-04-06 2000-10-20 Hitachi Ltd マルチメディアデータの編集再生方法、マルチメディアデータ編集再生システム及びマルチメディアデータ記録媒体
JP2002232827A (ja) 1999-12-21 2002-08-16 Matsushita Electric Ind Co Ltd 映像音声編集システム
JP2002021137A (ja) 2000-07-06 2002-01-23 Toto Ltd 流し台
JP2002290915A (ja) 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd 情報記録媒体、情報記録装置、記録方法、再生装置、再生方法及びプログラム
JP2003032612A (ja) 2001-07-13 2003-01-31 Canon Inc 動画再生記述方法、動画再生記録装置、記録媒体および制御プログラム
JP2003168283A (ja) 2001-11-29 2003-06-13 Sharp Corp データ編集方法およびデータ記録媒体
JP3858883B2 (ja) * 2003-10-28 2006-12-20 ソニー株式会社 記録装置及びその制御方法
US7903927B2 (en) * 2004-07-08 2011-03-08 Sony Corporation Editing apparatus and control method thereof, and program and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010895A (ja) * 2008-06-25 2010-01-14 Sony Corp データ処理装置およびデータ処理方法
JP4544346B2 (ja) * 2008-06-25 2010-09-15 ソニー株式会社 データ処理装置およびデータ処理方法

Also Published As

Publication number Publication date
CN1846266A (zh) 2006-10-11
JP3835554B2 (ja) 2006-10-18
CN1846266B (zh) 2010-08-11
KR20060076769A (ko) 2006-07-04
US20070165998A1 (en) 2007-07-19
EP1667156B1 (en) 2009-09-23
DE602004023310D1 (de) 2009-11-05
US7702220B2 (en) 2010-04-20
WO2005027133A1 (ja) 2005-03-24
EP1667156A1 (en) 2006-06-07
EP1667156A4 (en) 2008-06-11

Similar Documents

Publication Publication Date Title
JP4629173B2 (ja) 記録装置および記録方法、並びに記録媒体
JP4355659B2 (ja) データ処理装置
US20050163488A1 (en) Recording apparatus, recording method, reproducing apparatus, reproducing method, and record medium
US7620295B2 (en) Recording medium containing thumbnail recorded thereon, recording apparatus and method therefor, and reproducing apparatus and method therefor
JP4062230B2 (ja) ファイル記録再生装置、ファイル記録再生方法、ファイル記録再生方法のプログラム及びファイル記録再生方法のプログラムを記録した記録媒体
EP1569238A1 (en) Reproducing apparatus and reproducing method
US7609296B2 (en) Recording apparatus, recording method, and recording medium using an index file
JP4203812B2 (ja) ファイル記録装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生装置、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体
JP3858883B2 (ja) 記録装置及びその制御方法
JP3835554B2 (ja) ファイル記録装置、ファイル再生装置、ファイル記録方法、ファイル記録方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法、ファイル再生方法のプログラム及びファイル再生方法のプログラムを記録した記録媒体
JP5045254B2 (ja) 記録装置、撮像装置、プレイリスト生成方法およびプログラム
US7624136B2 (en) File recording device, file reproducing device, file editing device, file recording method, file reproducing method, file editing method, program of file recording method program of file reproducing method program of file editing method
JP2004343167A (ja) ファイル記録装置及びファイル記録方法
JP2001101838A (ja) 編集方法およびディジタル記録再生装置
JP2005311923A (ja) 編集装置、編集方法、編集方法のプログラム、編集方法のプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees