JP4919129B2 - 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造 - Google Patents

情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造 Download PDF

Info

Publication number
JP4919129B2
JP4919129B2 JP2011065246A JP2011065246A JP4919129B2 JP 4919129 B2 JP4919129 B2 JP 4919129B2 JP 2011065246 A JP2011065246 A JP 2011065246A JP 2011065246 A JP2011065246 A JP 2011065246A JP 4919129 B2 JP4919129 B2 JP 4919129B2
Authority
JP
Japan
Prior art keywords
stream
information
section
stream data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2011065246A
Other languages
English (en)
Other versions
JP2011166803A (ja
JP2011166803A5 (ja
Inventor
元樹 加藤
俊也 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011065246A priority Critical patent/JP4919129B2/ja
Publication of JP2011166803A publication Critical patent/JP2011166803A/ja
Publication of JP2011166803A5 publication Critical patent/JP2011166803A5/ja
Application granted granted Critical
Publication of JP4919129B2 publication Critical patent/JP4919129B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

本発明は情報処理装置、情報処理方法、記録媒体、およびプログラム、並びに制御装置に関し、特に、GUIなどに説明表示する情報、主の再生経路の情報、副の再生経路の情報、主の再生経路を構成する個々の再生区間の間の接続情報、ユーザが所望したシーンにセットするブックマークやリジューム点の情報などの情報を含むファイルを記録する情報処理装置、情報処理方法、記録媒体、およびプログラム、並びに制御装置に関する。
近年、記録再生装置から取り外し可能なディスク型の記録媒体として、各種の光ディスクが提案されつつある。このような記録可能な光ディスクは、数ギガバイトの大容量メディアとして提案されており、ビデオ信号等のAV(Audio Visual)信号を記録するメディアとしての期待が高い。この記録可能な光デイスクに記録するデジタルのAV信号のソース(供給源)としては、CSデジタル衛星放送やBSデジタル放送があり、また、将来はデジタル方式の地上波テレビジョン放送等も提案されている。
ここで、これらのソースから供給されるデジタルビデオ信号は、通常MPEG(Moving Picture Experts Group)2方式で画像圧縮されているのが一般的である。また、記録装置には、その装置固有の記録レートが定められている。従来の民生用映像蓄積メディアで、デジタル放送由来のデジタルビデオ信号を記録する場合、アナログ記録方式であれば、デジタルビデオ信号をデコード後、帯域制限をして記録する。あるいは、MPEG1 Video、MPEG2 Video、DV方式をはじめとするデジタル記録方式であれば、1度デコードされた後に、その装置固有の記録レート・符号化方式で再エンコードされて記録される。
しかしながら、このような記録方法は、供給されたビットストリームを1度デコードし、その後で帯域制限や再エンコードを行って記録するため、画質の劣化を伴う。画像圧縮されたデジタル信号の記録をする場合、入力されたデジタル信号の伝送レートが記録再生装置の記録レートを超えない場合には、供給されたビットストリームをデコードや再エンコードすることなく、そのまま記録する方法が最も画質の劣化が少ない。ただし、画像圧縮されたデジタル信号の伝送レートが記録媒体としてのディスクの記録レートを超える場合には、記録再生装置でデコード後、伝送レートがディスクの記録レートの上限以下になるように、再エンコードをして記録する必要はある。
また、入力デジタル信号のビットレートが時間により増減する可変レート方式によって伝送されている場合には、回転ヘッドが固定回転数であるために記録レートが固定レートになるテープ記録方式に比べ、1度バッファにデータを蓄積し、バースト的に記録ができるディスク記録装置が記録媒体の容量をより無駄なく利用できる。
以上のように、デジタル放送が主流となる将来においては、データストリーマのように放送信号をデジタル信号のまま、デコードや再エンコードすることなく記録し、記録媒体としてディスクを使用した記録再生装置が求められると予測される。
ところで、上述したような記録装置により記録媒体にAVストリームデータを記録する場合、例えば、高速再生ができるようにするために、AVストリームデータを分析し、Iピクチャの位置を検出して、Iピクチャにアクセスできるようにして記録する場合と、AVストリームデータを分析せず、そのまま記録する場合とがある。
このような場合、従来、それぞれ専用のアプリケーションプログラムを用意し、それぞれにより、AVストリームを、異なるフォーマットのAVストリーム(高速再生が可能なAVストリーム、または不可能なAVストリーム)として記録媒体に記録するようにしていた。その結果、アプリケーションプログラムの開発に、費用と時間がかかることがあった。また、それぞれのアプリケーションプログラムにより記録されたAVストリームは、異なるフォーマットのものなので、相互の互換性がなくなり、共通の装置で再生することができないことがあった。
さらに、従来の記録装置では、例えば、オーディオデータを、所謂アフターレコーディングすることが困難であった。
本発明はこのような状況に鑑みてなされたものであり、高速再生が可能なAVストリームと不可能なAVストリームを、共通に管理することができるようにすることにある。
本発明の第1の側面の情報処理装置は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録手段を有し、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
前記連続区間識別情報は、前記連続区間のうちの1つを示すことができる。
前記記録手段はさらに、前記ストリームデータを構成する前記ソースパケットのシステム時間上の不連続点を示す不連続点情報を記録することができる。
前記記録手段はさらに、プレゼンテーションタイムスタンプと、それに対応するアクセスユニットを構成するストリームデータのアドレスとのペアを有するアドレステーブルを記録することができる。
前記記録手段はさらに、前記再生区間情報で指定される前記再生区間を有する前記ストリームデータとともに再生される、他のストリームデータの前記再生区間を指定する副再生区間情報を記録し、前記副再生区間情報は、前記連続区間識別情報と、前記他のストリームデータの前記再生区間の始点を示す前記始点時刻情報と、前記再生区間の終点を示す前記終点時刻情報とを含み、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示すことができる。
前記再生区間情報は、1以上の前記再生区間情報を含む再生指定情報に含まれるようにすることができる。
本発明の第1の側面の情報処理方法は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録ステップを含み、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
本発明の第1の側面の記録媒体、またはプログラムは、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録ステップをコンピュータに実行させるためのプログラムであって、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示すプログラムを記録したコンピュータ読み取り可能な記録媒体、またはプログラムである。
本発明の第1の側面の制御装置は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報の記録を制御する記録制御手段を有し、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
本発明の第1の側面においては、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、ストリームデータの再生区間の始点を示す始点時刻情報と、再生区間の終点を示す終点時刻情報とを含む再生区間情報が記録される。始点時刻情報及び終点時刻情報は、ともに連続区間識別情報により示される連続区間上のプレゼンテーションタイムを示す。
本発明の第2の側面の情報処理装置は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得手段と、前記再生区間情報を用いて前記ストリームデータを再生する再生手段とを有し、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
本発明の第2の側面の情報処理方法は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得ステップと、前記再生区間情報を用いて前記ストリームデータを再生する再生ステップとを含み、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
本発明の第2の側面の記録媒体、またはプログラムは、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得ステップと、前記再生区間情報を用いて前記ストリームデータを再生する再生ステップとをコンピュータに実行させるためのプログラムであって、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示すプログラムを記録したコンピュータ読み取り可能な記録媒体、またはプログラムである。
本発明の第2の側面の制御装置は、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得手段と、前記再生区間情報を用いて前記ストリームデータの再生を制御する再生制御手段とを有し、前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す。
本発明の第2の側面においては、ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、ストリームデータの再生区間の始点を示す始点時刻情報と、再生区間の終点を示す終点時刻情報とを含む、ストリームデータの再生区間を指定する再生区間情報が取得され、再生区間情報を用いてストリームデータが再生される。始点時刻情報及び終点時刻情報は、ともに連続区間識別情報により示される連続区間上のプレゼンテーションタイムを示す。
本発明の側面によれば、高速再生が可能なAVストリームと不可能なAVストリームを、共通に管理することが可能になる。
本発明を適用した記録再生装置の一実施の形態の構成を示す図である。 記録再生装置1により記録媒体に記録されるデータのフォーマットについて説明する図である。 Real PlayListとVirtual PlayListについて説明する図である。 Real PlayListの作成について説明する図である。 Real PlayListの削除について説明する図である。 アセンブル編集について説明する図である。 Virtual PlayListにサブパスを設ける場合について説明する図である。 PlayListの再生順序の変更について説明する図である。 PlayList上のマークとClip上のマークについて説明する図である。 メニューサムネイルについて説明する図である。 PlayListに付加されるマークについて説明する図である。 クリップに付加されるマークについて説明する図である。 PlayList、Clip、サムネイルファイルの関係について説明する図である。 ディレクトリ構造について説明する図である。 info.dvrのシンタクスを示す図である。 DVR volumeのシンタクスを示す図である。 Resumevolumeのシンタクスを示す図である。 UIAppInfovolumeのシンタクスを示す図である。 Character set valueのテーブルを示す図である。 TableOfPlayListのシンタクスを示す図である。 TableOfPlayListの他のシンタクスを示す図である。 MakersPrivateDataのシンタクスを示す図である。 xxxxx.rplsとyyyyy.vplsのシンタクスを示す図である。 PlayListについて説明する図である。 PlayListのシンタクスを示す図である。 PlayList_typeのテーブルを示す図である。 UIAppinfoPlayListのシンタクスを示す図である。 図27に示したUIAppinfoPlayListのシンタクス内のフラグについて説明する図である。 PlayItemについて説明する図である。 PlayItemについて説明する図である。 PlayItemについて説明する図である。 PlayItemのシンタクスを示す図である。 IN_timeについて説明する図である。 OUT_timeについて説明する図である。 Connection_Conditionのテーブルを示す図である。 Connection_Conditionについて説明する図である。 BridgeSequenceInfoを説明する図である。 BridgeSequenceInfoのシンタクスを示す図である。 SubPlayItemについて説明する図である。 SubPlayItemのシンタクスを示す図である。 SubPath_typeのテーブルを示す図である。 PlayListMarkのシンタクスを示す図である。 Mark_typeのテーブルを示す図である。 Mark_time_stampを説明する図である。 zzzzz.clipのシンタクスを示す図である。 ClipInfoのシンタクスを示す図である。 Clip_stream_typeのテーブルを示す図である。 offset_SPNについて説明する図である。 offset_SPNについて説明する図である。 STC区間について説明する図である。 STC_Infoについて説明する図である。 STC_Infoのシンタクスを示す図である。 ProgramInfoを説明する図である。 ProgramInfoのシンタクスを示す図である。 VideoCondingInfoのシンタクスを示す図である。 Video_formatのテーブルを示す図である。 frame_rateのテーブルを示す図である。 display_aspect_ratioのテーブルを示す図である。 AudioCondingInfoのシンタクスを示す図である。 audio_codingのテーブルを示す図である。 audio_component_typeのテーブルを示す図である。 sampling_frequencyのテーブルを示す図である。 CPIについて説明する図である。 CPIについて説明する図である。 CPIのシンタクスを示す図である。 CPI_typeのテーブルを示す図である。 ビデオEP_mapについて説明する図である。 EP_mapについて説明する図である。 EP_mapについて説明する図である。 EP_mapのシンタクスを示す図である。 EP_type valuesのテーブルを示す図である。 EP_map_for_one_stream_PIDのシンタクスを示す図である。 TU_mapについて説明する図である。 TU_mapのシンタクスを示す図である。 ClipMarkのシンタクスを示す図である。 mark_typeのテーブルを示す図である。 mark_type_stampのテーブルを示す図である。 menu.thmbとmark.thmbのシンタクスを示す図である。 Thumbnailのシンタクスを示す図である。 thumbnail_picture_formatのテーブルを示す図である。 tn_blockについて説明する図である。 DVR MPEG2のトランスポートストリームの構造について説明する図である。 DVR MPEG2のトランスポートストリームのレコーダモデルを示す図である。 DVR MPEG2のトランスポートストリームのプレーヤモデルを示す図である。 source packetのシンタクスを示す図である。 TP_extra_headerのシンタクスを示す図である。 copy permission indicatorのテーブルを示す図である。 シームレス接続について説明する図である。 シームレス接続について説明する図である。 シームレス接続について説明する図である シームレス接続について説明する図である。 シームレス接続について説明する図である オーディオのオーバーラップについて説明する図である。 BridgeSequenceを用いたシームレス接続について説明する図である。 BridgeSequenceを用いないシームレス接続について説明する図である。 DVR STDモデルを示す図である。 復号、表示のタイミングチャートである。 PlayListファイルのシンタクスを示す図である。 図98のPlayListファイル中のUIAppInfoPlayListのシンタクスを示す図である。 図98のPlayListファイル中のPlayList()のシンタクスを示す図である。 SubPlayItemのシンタクスを示す図である。 Real PlayListの作成方法を説明するフローチャートである。 Virtual PlayListの作成方法を説明するフローチャートである。 PlayListの再生方法を説明するフローチャートである。 PlayListのSubパスの再生方法を説明するフローチャートである。 PlayListMarkの作成方法を説明するフローチャートである。 PlayListMarkを使用した頭出し再生方法を説明するフローチャートである。 媒体を説明する図である。
以下に、本発明の実施の形態について、図面を参照して説明する。図1は、本発明を適用した記録再生装置1の内部構成例を示す図である。まず、外部から入力された信号を記録媒体に記録する動作を行う部分の構成について説明する。記録再生装置1は、アナログデータ、または、デジタルデータを入力し、記録することができる構成とされている。
端子11には、アナログのビデオ信号が、端子12には、アナログのオーディオ信号が、それぞれ入力される。端子11に入力されたビデオ信号は、解析部14とAVエンコーダ15に、それぞれ出力される。端子12に入力されたオーディオ信号は、AVエンコーダ15に出力される。解析部14は、入力されたビデオ信号からシーンチェンジなどの特徴点を抽出する。
AVエンコーダ15は、入力されたビデオ信号とオーディオ信号を、それぞれ符号化し、符号化ビデオストリーム(V)、符号化オーディオストリーム(A)、およびAV同期等のシステム情報(S)をマルチプレクサ16に出力する。
符号化ビデオストリームは、例えば、MPEG(Moving Picture Expert Group)2方式により符号化されたビデオストリームであり、符号化オーディオストリームは、例えば、MPEG1方式により符号化されたオーディオストリームや、ドルビーAC3方式により符号化されたオーディオストリーム等である。マルチプレクサ16は、入力されたビデオおよびオーディオのストリームを、入力システム情報に基づいて多重化して、スイッチ17を介して多重化ストリーム解析部18とソースパケッタイザ19に出力する。
多重化ストリームは、例えば、MPEG2トランスポートストリームやMPEG2プログラムストリームである。ソースパケッタイザ19は、入力された多重化ストリームを、そのストリームを記録させる記録媒体100のアプリケーションフォーマットに従って、ソースパケットから構成されるAVストリームを符号化する。AVストリームは、ECC(誤り訂正)符号化部20、変調部21で所定の処理が施され、書き込み部22に出力される。書き込み部22は、制御部23から出力される制御信号に基づいて、記録媒体100にAVストリームファイルを書き込む(記録する)。
デジタルインタフェースまたはデジタルテレビジョンチューナから入力されるデジタルテレビジョン放送等のトランスポートストリームは、端子13に入力される。端子13に入力されたトランスポートストリームの記録方式には、2通りあり、それらは、トランスペアレントに記録する方式と、記録ビットレートを下げるなどの目的のために再エンコードをした後に記録する方式である。記録方式の指示情報は、ユーザインターフェースとしての端子24から制御部23へ入力される。
入力トランスポートストリームをトランスペアレントに記録する場合、端子13に入力されたトランスポートストリームは、多重化ストリーム解析部18と、ソースパケッタイザ19に出力される。これ以降の記録媒体100へAVストリームが記録されるまでの処理は、上述の入力オーディオ信号とビデオ信号を符号化して記録する場合と同一の処理なので、その説明は省略する。
入力トランスポートストリームを再エンコードした後に記録する場合、端子13に入力されたトランスポートストリームは、デマルチプレクサ26に入力される。デマルチプレクサ26は、入力されたトランスポートストリームに対してデマルチプレクス処理を施し、ビデオストリーム(V)、オーディオストリーム(A)、およびシステム情報(S)を抽出する。
デマルチプレクサ26により抽出されたストリーム(情報)のうち、ビデオストリームはAVデコーダ27に、オーディオストリームとシステム情報はマルチプレクサ16に、それぞれ出力される。AVデコーダ27は、入力されたビデオストリームを復号し、その再生ビデオ信号をAVエンコーダ15に出力する。AVエンコーダ15は、入力ビデオ信号を符号化し、符号化ビデオストリーム(V)をマルチプレクサ16に出力する。
一方、デマルチプレクサ26から出力され、マルチプレクサ16に入力されたオーディオストリームとシステム情報、および、AVエンコーダ15から出力されたビデオストリームは、入力システム情報に基づいて、多重化されて、多重化ストリームとして多重化ストリーム解析部18とソースパケットタイザ19にスイッチ17を介して出力される。これ以後の記録媒体100へAVストリームが記録されるまでの処理は、上述の入力オーディオ信号とビデオ信号を符号化して記録する場合と同一の処理なので、その説明は省略する。
本実施の形態の記録再生装置1は、AVストリームのファイルを記録媒体100に記録すると共に、そのファイルを説明するアプリケーションデータベース情報も記録する。アプリケーションデータベース情報は、制御部23により作成される。制御部23への入力情報は、解析部14からの動画像の特徴情報、多重化ストリーム解析部18からのAVストリームの特徴情報、および端子24から入力されるユーザからの指示情報である。
解析部14から供給される動画像の特徴情報は、入力動画像信号の中の特徴的な画像に関係する情報であり、例えば、プログラムの開始点、シーンチェンジ点、コマーシャル(CM)の開始・終了点などの指定情報(マーク)であり、また、その指定場所の画像のサムネイル画像の情報も含まれる。
多重化ストリーム解析部18からのAVストリームの特徴情報は、記録されるAVストリームの符号化情報に関係する情報であり、例えば、AVストリーム内のIピクチャのアドレス情報、AVストリームの符号化パラメータ、AVストリームの中の符号化パラメータの変化点情報、ビデオストリームの中の特徴的な画像に関係する情報(マーク)などである。
端子24からのユーザの指示情報は、AVストリームの中の、ユーザが指定した再生区間の指定情報、その再生区間の内容を説明するキャラクター文字、ユーザが好みのシーンにセットするブックマークやリジューム点の情報などである。
制御部23は、上記の入力情報に基づいて、AVストリームのデータベース(Clip)、 AVストリームの再生区間(PlayItem)をグループ化したもの(PlayList)のデータベース、記録媒体100の記録内容の管理情報(info.dvr)、およびサムネイル画像の情報を作成する。これらの情報から構成されるアプリケーションデータベース情報は、AVストリームと同様にして、ECC符号化部20、変調部21で処理されて、書き込み部22へ入力される。書き込み部22は、制御部23から出力される制御信号に基づいて、記録媒体100へデータベースファイルを記録する。
上述したアプリケーションデータベース情報についての詳細は後述する。
このようにして記録媒体100に記録されたAVストリームファイル(画像データと音声データのファイル)と、アプリケーションデータベース情報が再生される場合、まず、制御部23は、読み出し部28に対して、記録媒体100からアプリケーションデータベース情報を読み出すように指示する。そして、読み出し部28は、記録媒体100からアプリケーションデータベース情報を読み出し、そのアプリケーションデータベース情報は、復調部29、ECC復号部30の処理を経て、制御部23へ入力される。
制御部23は、アプリケーションデータベース情報に基づいて、記録媒体100に記録されているPlayListの一覧を端子24のユーザインターフェースへ出力する。ユーザは、PlayListの一覧から再生したいPlayListを選択し、再生を指定されたPlayListに関する情報が制御部23へ入力される。制御部23は、そのPlayListの再生に必要なAVストリームファイルの読み出しを、読み出し部28に指示する。読み出し部28は、その指示に従い、記録媒体100から対応するAVストリームを読み出し復調部29に出力する。復調部29に入力されたAVストリームは、所定の処理が施されることにより復調され、さらにECC復号部30の処理を経て、ソースデパケッタイザ31出力される。
ソースデパケッタイザ31は、記録媒体100から読み出され、所定の処理が施されたアプリケーションフォーマットのAVストリームを、デマルチプレクサ26に出力できるストリームに変換する。デマルチプレクサ26は、制御部23により指定されたAVストリームの再生区間(PlayItem)を構成するビデオストリーム(V)、オーディオストリーム(A)、およびAV同期等のシステム情報(S)を、AVデコーダ27に出力する。AVデコーダ27は、ビデオストリームとオーディオストリームを復号し、再生ビデオ信号と再生オーディオ信号を、それぞれ対応する端子32と端子33から出力する。
また、ユーザインタフェースとしての端子24から、ランダムアクセス再生や特殊再生を指示する情報が入力された場合、制御部23は、AVストリームのデータベース(Clip)の内容に基づいて、記憶媒体100からのAVストリームの読み出し位置を決定し、そのAVストリームの読み出しを、読み出し部28に指示する。例えば、ユーザにより選択されたPlayListを、所定の時刻から再生する場合、制御部23は、指定された時刻に最も近いタイムスタンプを持つIピクチャからのデータを読み出すように読み出し部28に指示する。
また、ユーザによって高速再生(Fast-forward playback)が指示された場合、制御部23は、AVストリームのデータベース(Clip)に基づいて、AVストリームの中のI-ピクチャデータを順次連続して読み出すように読み出し部28に指示する。
読み出し部28は、指定されたランダムアクセスポイントからAVストリームのデータを読み出し、読み出されたデータは、後段の各部の処理を経て再生される。
次に、ユーザが、記録媒体100に記録されているAVストリームの編集をする場合を説明する。ユーザが、記録媒体100に記録されているAVストリームの再生区間を指定して新しい再生経路を作成したい場合、例えば、番組Aという歌番組から歌手Aの部分を再生し、その後続けて、番組Bという歌番組の歌手Aの部分を再生したいといった再生経路を作成したい場合、ユーザインタフェースとしての端子24から再生区間の開始点(イン点)と終了点(アウト点)の情報が制御部23に入力される。制御部23は、AVストリームの再生区間(PlayItem)をグループ化したもの(PlayList)のデータベースを作成する。
ユーザが、記録媒体100に記録されているAVストリームの一部を消去したい場合、ユーザインタフェースとしての端子24から消去区間のイン点とアウト点の情報が制御部23に入力される。制御部23は、必要なAVストリーム部分だけを参照するようにPlayListのデータベースを変更する。また、AVストリームの不必要なストリーム部分を消去するように、書き込み部22に指示する。
ユーザが、記録媒体100に記録されているAVストリームの再生区間を指定して新しい再生経路を作成したい場合であり、かつ、それぞれの再生区間をシームレスに接続したい場合について説明する。このような場合、制御部23は、AVストリームの再生区間(PlayItem)をグループ化したもの(PlayList)のデータベースを作成し、さらに、再生区間の接続点付近のビデオストリームの部分的な再エンコードと再多重化を行う。
まず、端子24から再生区間のイン点のピクチャの情報と、アウト点のピクチャの情報が制御部23へ入力される。制御部23は、読み出し部28にイン点側ピクチャとアウト点側のピクチャを再生するために必要なデータの読み出しを指示する。そして、読み出し部28は、記録媒体100からデータを読み出し、そのデータは、復調部29、ECC復号部30、ソースデパケッタイザ31を経て、デマルチプレクサ26に出力される。
制御部23は、デマルチプレクサ26に入力されたデータを解析して、ビデオストリームの再エンコード方法(picture_coding_typeの変更、再エンコードする符号化ビット量の割り当て)と、再多重化方式を決定し、その方式をAVエンコーダ15とマルチプレクサ16に供給する。
次に、デマルチプレクサ26は、入力されたストリームをビデオストリーム(V)、オーディオストリーム(A)、およびシステム情報(S)に分離する。ビデオストリームは、「AVデコーダ27に入力されるデータ」と「マルチプレクサ16に入力されるデータ」がある。前者のデータは、再エンコードするために必要なデータであり、これはAVデコーダ27で復号され、復号されたピクチャはAVエンコーダ15で再エンコードされて、ビデオストリームにされる。後者のデータは、再エンコードをしないで、オリジナルのストリームからコピーされるデータである。オーディオストリーム、システム情報については、直接、マルチプレクサ16に入力される。
マルチプレクサ16は、制御部23から入力された情報に基づいて、入力ストリームを多重化し、多重化ストリームを出力する。多重化ストリームは、ECC符号化部20、変調部21で処理されて、書き込み部22に入力される。書き込み部22は、制御部23から供給される制御信号に基づいて、記録媒体100にAVストリームを記録する。
以下に、アプリケーションデータベース情報や、その情報に基づく再生、編集といった操作に関する説明をする。図2は、アプリケーションフォーマットの構造を説明する図である。アプリケーションフォーマットは、AVストリームの管理のためにPlayListとClipの2つのレイヤをもつ。Volume Informationは、ディスク内のすべてのClipとPlayListの管理をする。ここでは、1つのAVストリームとその付属情報のペアを1つのオブジェクトと考え、それをClipと称する。AVストリームファイルはClip AV stream fileと称し、その付属情報は、Clip Information fileと称する。
1つのClip AV stream fileは、MPEG2トランスポートストリームをアプリケーションフォーマットによって規定される構造に配置したデータをストアする。一般的に、ファイルは、バイト列として扱われるが、Clip AV stream fileのコンテンツは、時間軸上に展開され、Clipの中のエントリーポイントは、主に時間ベースで指定される。所定のClipへのアクセスポイントのタイムスタンプが与えられた時、Clip Information fileは、Clip AV stream fileの中でデータの読み出しを開始すべきアドレス情報を見つけるために役立つ。
PlayListについて、図3を参照して説明する。PlayListは、Clipの中からユーザが見たい再生区間を選択し、それを簡単に編集することができるようにするために設けられている。1つのPlayListは、Clipの中の再生区間の集まりである。所定のClipの中の1つの再生区間は、PlayItemと呼ばれ、それは、時間軸上のイン点(IN)とアウト点(OUT)の対で表される。従って、PlayListは、複数のPlayItemが集まることにより構成される。
PlayListには、2つのタイプがある。1つは、Real PlayListであり、もう1つは、Virtual PlayListである。Real PlayListは、それが参照しているClipのストリーム部分を共有している。すなわち、Real PlayListは、それの参照しているClipのストリーム部分に相当するデータ容量をディスクの中で占め、Real PlayListが消去された場合、それが参照しているClipのストリーム部分もまたデータが消去される。
Virtual PlayListは、Clipのデータを共有していない。従って、Virtual PlayListが変更または消去されたとしても、Clipの内容には何も変化が生じない。
次に、Real PlayListの編集について説明する。図4(A)は、Real PlayListのクリエイト(create:作成)に関する図であり、AVストリームが新しいClipとして記録される場合、そのClip全体を参照するReal PlayListが新たに作成される操作である。
図4(B)は、Real PlayListのディバイド(divide:分割)に関する図であり、Real PlayListが所望な点で分けられて、2つのReal PlayListに分割される操作である。この分割という操作は、例えば、1つのPlayListにより管理される1つのクリップ内に、2つの番組が管理されているような場合に、ユーザが1つ1つの番組として登録(記録)し直したいといったようなときに行われる。この操作により、Clipの内容が変更される(Clip自体が分割される)ことはない。
図4(C)は、Real PlayListのコンバイン(combine:結合)に関する図であり、2つのReal PlayListを結合して、1つの新しいReal PlayListにする操作であ。この結合という操作は、例えば、ユーザが2つの番組を1つの番組として登録し直したいといったようなときに行われる。この操作により、Clipが変更される(Clip自体が1つにされる)ことはない。
図5(A)は、Real PlayList全体のデリート(delete:削除)に関する図であり、所定のReal PlayList全体を消去する操作がされた場合、削除されたReal PlayListが参照するClipの、対応するストリーム部分も削除される。
図5(B)は、Real PlayListの部分的な削除に関する図であり、Real PlayListの所望な部分が削除された場合、対応するPlayItemが、必要なClipのストリーム部分だけを参照するように変更される。そして、Clipの対応するストリーム部分は削除される。
図5(C)は、Real PlayListのミニマイズ(Minimize:最小化)に関する図であり、Real PlayListに対応するPlayItemを、Virtual PlayListに必要なClipのストリーム部分だけを参照するようにする操作である。Virtual PlayList にとって不必要なClipの、対応するストリーム部分は削除される。
上述したような操作により、Real PlayListが変更されて、そのReal PlayListが参照するClipのストリーム部分が削除された場合、その削除されたClipを使用しているVirtual PlayListが存在し、そのVirtual PlayListにおいて、削除されたClipにより問題が生じる可能性がある。
そのようなことが生じないように、ユーザに、削除という操作に対して、「そのReal PlayListが参照しているClipのストリーム部分を参照しているVirtual PlayListが存在し、もし、そのReal PlayListが消去されると、そのVirtual PlayListもまた消去されることになるが、それでも良いか?」といったメッセージなどを表示させることにより、確認(警告)を促した後に、ユーザの指示により削除の処理を実行、または、キャンセルする。または、Virtual PlayListを削除する代わりに、Real PlayListに対してミニマイズの操作が行われるようにする。
次にVirtual PlayListに対する操作について説明する。Virtual PlayListに対して操作が行われたとしても、Clipの内容が変更されることはない。図6は、アセンブル(Assemble) 編集 (IN-OUT 編集)に関する図であり、ユーザが見たいと所望した再生区間のPlayItemを作り、Virtual PlayListを作成するといった操作である。PlayItem間のシームレス接続が、アプリケーションフォーマットによりサポートされている(後述)。
図6(A)に示したように、2つのReal PlayList1,2と、それぞれのReal PlayListに対応するClip1,2が存在している場合に、ユーザがReal PlayList1内の所定の区間(In1乃至Out1までの区間:PlayItem1)を再生区間として指示し、続けて再生する区間として、Real PlayList2内の所定の区間(In2乃至Out2までの区間:PlayItem2)を再生区間として指示したとき、図6(B)に示すように、PlayItem1とPlayItem2から構成される1つのVirtual PlayListが作成される。
次に、Virtual PlayList の再編集(Re-editing)について説明する。再編集には、Virtual PlayListの中のイン点やアウト点の変更、Virtual PlayListへの新しいPlayItemの挿入(insert)や追加(append)、Virtual PlayListの中のPlayItemの削除などがある。また、Virtual PlayListそのものを削除することもできる。
図7は、Virtual PlayListへのオーディオのアフレコ(Audio dubbing (post recording))に関する図であり、Virtual PlayListへのオーディオのアフレコをサブパスとして登録する操作のことである。このオーディオのアフレコは、アプリケーションフォーマットによりサポートされている。Virtual PlayListのメインパスのAVストリームに、付加的なオーディオストリームが、サブパスとして付加される。
Real PlayListとVirtual PlayListで共通の操作として、図8に示すようなPlayListの再生順序の変更(Moving)がある。この操作は、ディスク(ボリューム)の中でのPlayListの再生順序の変更であり、アプリケーションフォーマットにおいて定義されるTable Of PlayList(図20などを参照して後述する)によってサポートされる。この操作により、Clipの内容が変更されるようなことはない。
次に、マーク(Mark)について説明する。マークは、ClipおよびPlayListの中のハイライトや特徴的な時間を指定するために設けられている。Clipに付加されるマークは、AVストリームの内容に起因する特徴的なシーンを指定する、例えば、シーンチェンジ点などである。PlayListを再生する時、そのPlayListが参照するClipのマークを参照して、使用する事ができる。
PlayListに付加されるマークは、主にユーザによってセットされる、例えば、ブックマークやリジューム点などである。ClipまたはPlayListにマークをセットすることは、マークの時刻を示すタイムスタンプをマークリストに追加することにより行われる。また、マークを削除することは、マークリストの中から、そのマークのタイムスタンプを除去する事である。従って、マークの設定や削除により、AVストリームは何の変更もされない。
次にサムネイルについて説明する。サムネイルは、Volume、PlayList、およびClipに付加される静止画である。サムネイルには、2つの種類があり、1つは、内容を表す代表画としてのサムネイルである。これは主としてユーザがカーソル(不図示)などを操作して見たいものを選択するためのメニュー画面で使われるものである。もう1つは、マークが指しているシーンを表す画像である。
Volumeと各Playlistは代表画を持つことができるようにする必要がある。Volumeの代表画は、ディスク(記録媒体100、以下、記録媒体100はディスク状のものであるとし、適宜、ディスクと記述する)を記録再生装置1の所定の場所にセットした時に、そのディスクの内容を表す静止画を最初に表示する場合などに用いられることを想定している。Playlistの代表画は、Playlistを選択するメニュー画面において、Playlistの内容を表すための静止画として用いられることを想定している。
Playlistの代表画として、Playlistの最初の画像をサムネイル(代表画)にすることが考えられるが、必ずしも再生時刻0の先頭の画像が内容を表す上で最適な画像とは限らない。そこで、Playlistのサムネイルとして、任意の画像をユーザが設定できるようにする。以上2種類のサムネイルをメニューサムネイルと称する。メニューサムネイルは頻繁に表示されるため、ディスクから高速に読み出される必要がある。このため、すべてのメニューサムネイルを1つのファイルに格納することが効率的である。メニューサムネイルは、必ずしもボリューム内の動画から抜き出したピクチャである必要はなく、図10に示すように、パーソナルコンピュータやデジタルスチルカメラから取り込こまれた画像でもよい。
一方、ClipとPlaylistには、複数個のマークを打てる必要があり、マーク位置の内容を知るためにマーク点の画像を容易に見ることが出来るようにする必要がある。このようなマーク点を表すピクチャをマークサムネイル(Mark Thumbnails)と称する。従って、サムネイルの元となる画像は、外部から取り込んだ画像よりも、マーク点の画像を抜き出したものが主となる。
図11は、PlayListに付けられるマークと、そのマークサムネイルの関係について示す図であり、図12は、Clipに付けられるマークと、そのマークサムネイルの関係について示す図である。マークサムネイルは、メニューサムネイルと異なり、Playlistの詳細を表す時に、サブメニュー等で使われるため、短いアクセス時間で読み出されるようなことは要求されない。そのため、サムネイルが必要になる度に、記録再生装置1がファイルを開き、そのファイルの一部を読み出すことで多少時間がかかっても、問題にはならない。
また、ボリューム内に存在するファイル数を減らすために、すべてのマークサムネイルは1つのファイルに格納するのがよい。Playlistはメニューサムネイル1つと複数のマークサムネイルを有することができるが、Clipは直接ユーザが選択する必要性がない(通常、Playlist経由で指定する)ため、メニューサムネイルを設ける必要はない。
図13は、上述したことを考慮した場合のメニューサムネイル、マークサムネイル、PlayList、およびClipの関係について示した図である。メニューサムネイルファイルには、PlayList毎に設けられたメニューサムネイルがファイルされている。メニューサムネイルファイルには、ディスクに記録されているデータの内容を代表するボリュームサムネイルが含まれている。マークサムネイルファイルは、各PlayList毎と各Clip毎に作成されたサムネイルがファイルされている。
次に、CPI(Characteristic Point Information)について説明する。CPIは、Clipインフォメーションファイルに含まれるデータであり、主に、それはClipへのアクセスポイントのタイムスタンプが与えられた時、Clip AV stream fileの中でデータの読み出しを開始すべきデータアドレスを見つけるために用いられる。本実施の形態では、2種類のCPIを用いる。1つは、EP_mapであり、もう1つは、TU_mapである。
EP_mapは、エントリーポイント(EP)データのリストであり、それはエレメンタリーストリームおよびトランスポートストリームから抽出されたものである。これは、AVストリームの中でデコードを開始すべきエントリーポイントの場所を見つけるためのアドレス情報を持つ。1つのEPデータは、プレゼンテーションタイムスタンプ(PTS)と、そのPTSに対応するアクセスユニットのAVストリームの中のデータアドレスの対で構成される。
EP_mapは、主に2つの目的のために使用される。第1に、PlayListの中でプレゼンテーションタイムスタンプによって参照されるアクセスユニットのAVストリームの中のデータアドレスを見つけるために使用される。第2に、ファーストフォワード再生やファーストリバース再生のために使用される。記録再生装置1が、入力AVストリームを記録する場合、そのストリームのシンタクスを解析することができるとき、EP_mapが作成され、ディスクに記録される。
TU_mapは、デジタルインタフェースを通して入力されるトランスポートパケットの到着時刻に基づいたタイムユニット(TU)データのリストを持つ。これは、到着時刻ベースの時間とAVストリームの中のデータアドレスとの関係を与える。記録再生装置1が、入力AVストリームを記録する場合、そのストリームのシンタクスを解析することができないとき、TU_mapが作成され、ディスクに記録される。
STCInfoは、MPEG2トランスポートストリームをストアしているAVストリームファイルの中にあるSTCの不連続点情報をストアする。AVストリームがSTCの不連続点を持つ場合、そのAVストリームファイルの中で同じ値のPTSが現れるかもしれない。そのため、AVストリーム上のある時刻をPTSベースで指す場合、アクセスポイントのPTSだけではそのポイントを特定するためには不十分である。更に、そのPTSを含むところの連続なSTC区間のインデックスが必要である。連続なSTC区間を、このフォーマットでは STC-sequenceと呼び、そのインデックスをSTC-sequence-idと呼ぶ。STC-sequenceの情報は、Clip Information fileのSTCInfoで定義される。STC-sequence-idは、EP_mapを持つAVストリームファイルで使用するものであり、TU_mapを持つAVストリームファイルではオプションである。
プログラムは、エレメンタリーストリームの集まりであり、これらのストリームの同期再生のために、ただ1つのシステムタイムベースを共有するものである。再生装置(図1の記録再生装置1)にとって、AVストリームのデコードに先だち、そのAVストリームの内容がわかることは有用である。例えば、ビデオやオーディオのエレメンタリーストリームを伝送するトランスポートパケットのPIDの値や、ビデオやオーディオのコンポーネント種類(例えば、HDTVのビデオとMPEG-2 AACのオーディオストリームなど)などの情報である。この情報はAVストリームを参照するところのPlayListの内容をユーザに説明するところのメニュー画面を作成するのに有用であるし、また、AVストリームのデコードに先だって、再生装置のAVデコーダおよびデマルチプレクサの初期状態をセットするために役立つ。この理由のために、Clip Information fileは、プログラムの内容を説明するためのProgramInfoを持つ。
MPEG2トランスポートストリームをストアしているAVストリームファイルは、ファイルの中でプログラム内容が変化するかもしれない。例えば、ビデオエレメンタリーストリームを伝送するところのトランスポートパケットのPIDが変化したり、ビデオストリームのコンポーネント種類がSDTVからHDTVに変化するなどである。
ProgramInfoは、AVストリームファイルの中でのプログラム内容の変化点の情報をストアする。AVストリームファイルの中で、このフォーマットで定めるところのプログラム内容が一定である区間をProgram-sequenceと呼ぶ。Program-sequenceは、EP_mapを持つAVストリームファイルで使用するものであり、TU_mapを持つAVストリームファイルではオプションである。
本実施の形態では、セルフエンコードのストリームフォーマット(SESF)を定義する。SESFは、アナログ入力信号を符号化する目的、およびデジタル入力信号(例えばDV)をデコードしてからMPEG2トランスポートストリームに符号化する場合に用いられる。
SESFは、MPEG-2トランスポートストリームおよびAVストリームについてのエレメンタリーストリームの符号化制限を定義する。記録再生装置1が、SESFストリームをエンコードし、記録する場合、EP_mapが作成され、ディスクに記録される。
デジタル放送のストリームは、次に示す方式のうちのいずれかが用いられて記録媒体100に記録される。まず、デジタル放送のストリームをSESFストリームにトランスコーディングする。この場合、記録されたストリームは、SESFに準拠しなければならない。この場合、EP_mapが作成されて、ディスクに記録されなければならない。
あるいは、デジタル放送のストリームを構成するエレメンタリーストリームを新しいエレメンタリーストリームにトランスコーディングし、そのデジタル放送ストリームの規格化組織が定めるストリームフォーマットに準拠した新しいトランスポートストリームに再多重化する。この場合、EP_mapが作成されて、ディスクに記録されなければならない。
例えば、入力ストリームがISDB(日本のデジタルBS放送の規格名称)準拠のMPEG-2トランスポートストリームであり、それがHDTVビデオストリームとMPEG AACオーディオストリームを含むとする。HDTVビデオストリームをSDTVビデオストリームにトランスコーディングし、そのSDTVビデオストリームとオリジナルのAACオーディオストリームをTSに再多重化する。SDTVストリームと記録されるトランスポートストリームは、共にISDBフォーマットに準拠しなければならない。
デジタル放送のストリームが、記録媒体100に記録される際の他の方式として、入力トランスポートストリームをトランスペアレントに記録する(入力トランスポートストリームを何も変更しないで記録する)場合であり、ストリームのシンタクスを解析することができるときに、EP_mapが作成されてディスクに記録される。
または、入力トランスポートストリームをトランスペアレントに記録する(入力トランスポートストリームを何も変更しないで記録する)場合であり、ストリームのシンタクスを解析することができないときに、TU_mapが作成されてディスクに記録される。
次にディレクトリとファイルについて説明する。以下、記録再生装置1をDVR(Digital Video Recording)と適宜記述する。図14はディスク上のディレクトリ構造の一例を示す図である。DVRのディスク上に必要なディレクトリは、図14に示したように、"DVR"ディレクトリを含むrootディレクトリ、"PLAYLIST"ディレクトリ、"CLIPINF"ディレクトリ、"M2TS"ディレクトリ、および"DATA"ディレクトリを含む"DVR"ディレクトリである。rootディレクトリの下に、これら以外のディレクトリを作成されるようにしても良いが、それらは、本実施の形態のアプリケーションフォーマットでは、無視されるとする。
"DVR"ディレクトリの下には、 DVRアプリケーションフォーマットによって規定される全てのファイルとディレクトリがストアされる。"DVR"ディレクトリは、4個のディレクトリを含む。"PLAYLIST"ディレクトリの下には、Real PlayListとVirtual PlayListのデータベースファイルが置かれる。このディレクトリは、PlayListが1つもなくても存在する。
"CLIPINF"ディレクトリの下には、Clipのデータベースが置かれる。このディレクトリも、Clipが1つもなくても存在する。"M2TS"ディレクトリの下には、AVストリームファイルが置かれる。このディレクトリは、AVストリームファイルが1つもなくても存在する。"DATA"ディレクトリは、デジタルTV放送などのデータ放送のファイルがストアされる。
"DVR"ディレクトリは、次に示すファイルをストアする。"info.dvr"ファイルは、 DVRディレクトリの下に作られ、アプリケーションレイヤの全体的な情報をストアする。DVRディレクトリの下には、ただ1つのinfo.dvrがなければならない。ファイル名は、info.dvrに固定されるとする。"menu.thmb"ファイルは、メニューサムネイル画像に関連する情報をストアする。DVRディレクトリの下には、ゼロまたは1つのメニューサムネイルがなければならない。ファイル名は、memu.thmbに固定されるとする。メニューサムネイル画像が1つもない場合、このファイルは、存在しなくても良い。
"mark.thmb"ファイルは、マークサムネイル画像に関連する情報をストアする。DVRディレクトリの下には、ゼロまたは1つのマークサムネイルがなければならない。ファイル名は、mark.thmbに固定されるとする。メニューサムネイル画像が1つもない場合、このファイルは、存在しなくても良い。
"PLAYLIST"ディレクトリは、2種類のPlayListファイルをストアするものであり、それらは、Real PlayListとVirtual PlayListである。"xxxxx.rpls" ファイルは、1つのReal PlayListに関連する情報をストアする。それぞれのReal PlayList毎に、1つのファイルが作られる。ファイル名は、"xxxxx.rpls"である。ここで、"xxxxx"は、5個の0乃至9まで数字である。ファイル拡張子は、"rpls"でなければならないとする。
"yyyyy.vpls"ファイルは、1つのVirtual PlayListに関連する情報をストアする。それぞれのVirtual PlayList毎に、1つのファイルが作られる。ファイル名は、"yyyyy.vpls"である。ここで、"yyyyy"は、5個の0乃至9まで数字である。ファイル拡張子は、"vpls"でなければならないとする。
"CLIPINF"ディレクトリは、それぞれのAVストリームファイルに対応して、1つのファイルをストアする。"zzzzz.clpi" ファイルは、1つのAVストリームファイル(Clip AV stream file または Bridge-Clip AV stream file)に対応するClip Information fileである。ファイル名は、"zzzzz.clpi"であり、"zzzzz"は、5個の0乃至9までの数字である。ファイル拡張子は、"clpi"でなければならないとする。
"M2TS"ディレクトリは、AVストリームのファイルをストアする。"zzzzz.m2ts"ファイルは、DVRシステムにより扱われるAVストリームファイルである。これは、Clip AV stream fileまたはBridge-Clip AV streamである。ファイル名は、"zzzzz.m2ts"であり、"zzzzz"は、5個の0乃至9までの数字である。ファイル拡張子は、"m2ts"でなければならないとする。
"DATA"ディレクトリは、データ放送から伝送されるデータをストアするものであり、データとは、例えば、XML fileやMHEGファイルなどである。
次に、各ディレクトリ(ファイル)のシンタクスとセマンティクスを説明する。まず、"info.dvr"ファイルについて説明する。図15は、"info.dvr"ファイルのシンタクスを示す図である。"info.dvr"ファイルは、3個のオブジェクトから構成され、それらは、DVRVolume()、TableOfPlayLists()、およびMakerPrivateData()である。
図15に示したinfo.dvrのシンタクスについて説明するに、TableOfPlayLists_Start_addressは、info.dvrファイルの先頭のバイトからの相対バイト数を単位として、TableOfPlayList()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
MakerPrivateData_Start_addressは、info.dvrファイルの先頭のバイトからの相対バイト数を単位として、MakerPrivateData()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。padding_word(パディングワード)は、info.dvrのシンタクスに従って挿入される。N1とN2は、ゼロまたは任意の正の整数である。それぞれのパディングワードは、任意の値を取るようにしても良い。
DVRVolume()は、ボリューム(ディスク)の内容を記述する情報をストアする。図16は、DVRVolume()のシンタクスを示す図である。図16に示したDVR Volume()のシンタクスを説明するに、version_numberは、このDVRVolume()のバージョンナンバを示す4個のキャラクター文字を示す。version_numberは、ISO 646に従って、"0045"と符号化される。
lengthは、このlengthフィールドの直後からDVRVolume()の最後までのDVRVolume()のバイト数を示す32ビットの符号なし整数で表される。
ResumeVolume()は、ボリュームの中で最後に再生したReal PlayListまたはVirtual PlayListのファイル名を記憶している。ただし、Real PlayListまたはVirtual PlayListの再生をユーザが中断した時の再生位置は、PlayListMark()において定義されるresume-markにストアされる。
図17は、ResumeVolume()のシンタクスを示す図である。図17に示したResumeVolume()のシンタクスを説明するに、valid_flagは、この1ビットのフラグが1にセットされている場合、resume_PlayList_nameフィールドが有効であることを示し、このフラグが0にセットされている場合、resume_PlayList_nameフィールドが無効であることを示す。
resume_PlayList_nameの10バイトのフィールドは、リジュームされるべきReal PlayListまたはVirtual PlayListのファイル名を示す。
図16に示したDVRVolume()のシンタクスのなかの、UIAppInfoVolume は、ボリュームについてのユーザインターフェースアプリケーションのパラメータをストアする。図18は、UIAppInfoVolumeのシンタクスを示す図であり、そのセマンティクスを説明するに、character_setの8ビットのフィールドは、Volume_nameフィールドに符号化されているキャラクター文字の符号化方法を示す。その符号化方法は、図19に示される値に対応する。
name_lengthの8ビットフィールドは、Volume_nameフィールドの中に示されるボリューム名のバイト長を示す。Volume_nameのフィールドは、ボリュームの名称を示す。このフィールドの中の左からname_length数のバイト数が、有効なキャラクター文字であり、それはボリュームの名称を示す。Volume_nameフィールドの中で、それら有効なキャラクター文字の後の値は、どんな値が入っていても良い。
Volume_protect_flagは、ボリュームの中のコンテンツを、ユーザに制限することなしに見せてよいかどうかを示すフラグである。このフラグが1にセットされている場合、ユーザが正しくPIN番号(パスワード)を入力できたときだけ、そのボリュームのコンテンツを、ユーザに見せる事(再生される事)が許可される。このフラグが0にセットされている場合、ユーザがPIN番号を入力しなくても、そのボリュームのコンテンツを、ユーザに見せる事が許可される。
最初に、ユーザが、ディスクをプレーヤへ挿入した時点において、もしこのフラグが0にセットされているか、または、このフラグが1にセットされていてもユーザがPIN番号を正しく入力できたならば、記録再生装置1は、そのディスクの中のPlayListの一覧を表示させる。それぞれのPlayListの再生制限は、volume_protect_flagとは無関係であり、それはUIAppInfoPlayList()の中に定義されるplayback_control_flagによって示される。
PINは、4個の0乃至9までの数字で構成され、それぞれの数字は、ISO/IEC 646に従って符号化される。ref_thumbnail_indexのフィールドは、ボリュームに付加されるサムネイル画像の情報を示す。ref_thumbnail_indexフィールドが、0xFFFFでない値の場合、そのボリュームにはサムネイル画像が付加されており、そのサムネイル画像は、menu.thumファイルの中にストアされている。その画像は、menu.thumファイルの中でref_thumbnail_indexの値を用いて参照される。ref_thumbnail_indexフィールドが、0xFFFF である場合、そのボリュームにはサムネイル画像が付加されていないことを示す。
次に図15に示したinfo.dvrのシンタクス内のTableOfPlayLists()について説明する。TableOfPlayLists()は、PlayList(Real PlayListとVirtual PlayList)のファイル名をストアする。ボリュームに記録されているすべてのPlayListファイルは、TableOfPlayList()の中に含まれる。TableOfPlayLists()は、ボリュームの中のPlayListのデフォルトの再生順序を示す。
図20は、TableOfPlayLists()のシンタクスを示す図であり、そのシンタクスについて説明するに、TableOfPlayListsのversion_numberは、このTableOfPlayListsのバージョンナンバーを示す4個のキャラクター文字を示す。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からTableOfPlayLists()の最後までのTableOfPlayLists()のバイト数を示す32ビットの符号なしの整数である。number_of_PlayListsの16ビットのフィールドは、PlayList_file_nameを含むfor-loopのループ回数を示す。この数字は、ボリュームに記録されているPlayListの数に等しくなければならない。PlayList_file_nameの10バイトの数字は、PlayListのファイル名を示す。
図21は、TableOfPlayLists()のシンタクスを別実施の構成を示す図である。図21に示したシンタクスは、図20に示したシンタクスに、UIAppinfoPlayList(後述)を含ませた構成とされている。このように、UIAppinfoPlayListを含ませた構成とすることで、TableOfPlayListsを読み出すだけで、メニュー画面を作成することが可能となる。ここでは、図20に示したシンタクスを用いるとして以下の説明をする。
図15に示したinfo.dvrのシンタクス内のMakersPrivateDataについて説明する。MakersPrivateDataは、記録再生装置1のメーカが、各社の特別なアプリケーションのために、MakersPrivateData()の中にメーカのプライベートデータを挿入できるように設けられている。各メーカのプライベートデータは、それを定義したメーカを識別するために標準化されたmaker_IDを持つ。MakersPrivateData()は、1つ以上のmaker_IDを含んでも良い。
所定のメーカが、プライベートデータを挿入したい時に、すでに他のメーカのプライベートデータがMakersPrivateData()に含まれていた場合、他のメーカは、既にある古いプライベートデータを消去するのではなく、新しいプライベートデータをMakersPrivateData()の中に追加するようにする。このように、本実施の形態においては、複数のメーカのプライベートデータが、1つのMakersPrivateData()に含まれることが可能であるようにする。
図22は、MakersPrivateDataのシンタクスを示す図である。図22に示したMakersPrivateDataのシンタクスについて説明するに、version_numberは、このMakersPrivateData()のバージョンナンバを示す4個のキャラクター文字を示す。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。lengthは、このlengthフィールドの直後からMakersPrivateData()の最後までのMakersPrivateData()のバイト数を示す32ビットの符号なし整数を示す。
mpd_blocks_start_addressは、MakersPrivateData()の先頭のバイトからの相対バイト数を単位として、最初のmpd_block()の先頭バイトアドレスを示す。相対バイト数はゼロからカウントされる。number_of_maker_entriesは、MakersPrivateData()の中に含まれているメーカプライベートデータのエントリー数を与える16ビットの符号なし整数である。MakersPrivateData()の中に、同じmaker_IDの値を持つメーカプライベートデータが2個以上存在してはならない。
mpd_block_sizeは、1024バイトを単位として、1つのmpd_blockの大きさを与える16ビットの符号なし整数である。例えば、mpd_block_size=1ならば、それは1つのmpd_blockの大きさが1024バイトであることを示す。number_of_mpd_blocksは、MakersPrivateData()の中に含まれるmpd_blockの数を与える16ビットの符号なし整数である。maker_IDは、そのメーカプライベートデータを作成したDVRシステムの製造メーカを示す16ビットの符号なし整数である。maker_IDに符号化される値は、このDVRフォーマットのライセンサによって指定される。
maker_model_codeは、そのメーカプライベートデータを作成したDVRシステムのモデルナンバーコードを示す16ビットの符号なし整数である。maker_model_codeに符号化される値は、このフォーマットのライセンスを受けた製造メーカによって設定される。start_mpd_block_numberは、そのメーカプライベートデータが開始されるmpd_blockの番号を示す16ビットの符号なし整数である。メーカプライベートデータの先頭データは、mpd_blockの先頭にアラインされなければならない。start_mpd_block_numberは、mpd_blockのfor-loopの中の変数jに対応する。
mpd_lengthは、バイト単位でメーカプライベートデータの大きさを示す32ビットの符号なし整数である。mpd_blockは、メーカプライベートデータがストアされる領域である。MakersPrivateData()の中のすべてのmpd_blockは、同じサイズでなければならない。
次に、Real PlayList fileとVirtual PlayList fileについて、換言すれば、xxxxx.rplsとyyyyy.vplsについて説明する。図23は、xxxxx.rpls(Real PlayList)、または、yyyyy.vpls(Virtual PlayList)のシンタクスを示す図である。xxxxx.rplsとyyyyy.vplsは、同一のシンタクス構成をもつ。xxxxx.rplsとyyyyy.vplsは、それぞれ、3個のオブジェクトから構成され、それらは、PlayList()、PlayListMark()、およびMakerPrivateData()である。
PlayListMark_Start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
MakerPrivateData_Start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、MakerPrivateData()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
padding_word(パディングワード)は、PlayListファイルのシンタクスにしたがって挿入され、N1とN2は、ゼロまたは任意の正の整数である。それぞれのパディングワードは、任意の値を取るようにしても良い。
ここで、既に、簡便に説明したが、PlayListについてさらに説明する。ディスク内にあるすべてのReal PlayListによって、Bridge-Clip(後述)を除くすべてのClipの中の再生区間が参照されていなければならない。かつ、2つ以上のReal PlayListが、それらのPlayItemで示される再生区間を同一のClipの中でオーバーラップさせてはならない。
図24を参照してさらに説明するに、図24(A)に示したように、全てのClipは、対応するReal PlayListが存在する。この規則は、図24(B)に示したように、編集作業が行われた後においても守られる。従って、全てのClipは、どれかしらのReal PlayListを参照することにより、必ず視聴することが可能である。
図24(C)に示したように、Virtual PlayListの再生区間は、Real PlayListの再生区間またはBridge-Clipの再生区間の中に含まれていなければならない。どのVirtual PlayListにも参照されないBridge-Clipがディスクの中に存在してはならない。
RealPlayListは、PlayItemのリストを含むが、SubPlayItemを含んではならない。Virtual PlayListは、PlayItemのリストを含み、PlayList()の中に示されるCPI_typeがEP_map typeであり、かつPlayList_typeが0(ビデオとオーディオを含むPlayList)である場合、Virtual PlayListは、ひとつのSubPlayItemを含む事ができる。本実施の形態におけるPlayList()では、SubPlayIteはオーディオのアフレコの目的にだけに使用される。
そして、1つのVirtual PlayListが持つSubPlayItemの数は、0または1でなければならない。
次に、PlayListについて説明する。図25は、PlayListのシンタクスを示す図である。図25に示したPlayListのシンタクスを説明するに、version_numberは、このPlayList()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。lengthは、このlengthフィールドの直後からPlayList()の最後までのPlayList()のバイト数を示す32ビットの符号なし整数である。PlayList_typeは、このPlayListのタイプを示す8ビットのフィールドであり、その一例を図26に示す。
CPI_typeは、1ビットのフラグであり、PlayItem()およびSubPlayItem()によって参照されるClipのCPI_typeの値を示す。1つのPlayListによって参照される全てのClipは、それらのCPI()の中に定義されるCPI_typeの値が同じでなければならない。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。
所定のPlayItem()に対応するPlayItem_idは、PlayItem()を含むfor-loopの中で、そのPlayItem()の現れる順番により定義される。PlayItem_idは、0から開始される。number_of_SubPlayItemsは、PlayListの中にあるSubPlayItemの数を示す16ビットのフィールドである。この値は、0または1である。付加的なオーディオストリームのパス(オーディオストリームパス)は、サブパスの一種である。
次に、図25に示したPlayListのシンタクスのUIAppInfoPlayListについて説明する。UIAppInfoPlayListは、PlayListについてのユーザインターフェースアプリケーションのパラメータをストアする。図27は、UIAppInfoPlayListのシンタクスを示す図である。図27に示したUIAppInfoPlayListのシンタクスを説明するに、character_setは、8ビットのフィールドであり、PlayList_nameフィールドに符号化されているキャラクター文字の符号化方法を示す。その符号化方法は、図19に示したテーブルに準拠する値に対応する。
name_lengthは、8ビットフィールドであり、PlayList_nameフィールドの中に示されるPlayList名のバイト長を示す。PlayList_nameのフィールドは、PlayListの名称を示す。このフィールドの中の左からname_length数のバイト数が、有効なキャラクター文字であり、それはPlayListの名称を示す。PlayList_nameフィールドの中で、それら有効なキャラクター文字の後の値は、どんな値が入ってい
ても良い。
record_time_and_dateは、PlayListが記録された時の日時をストアする56ビットのフィールドである。このフィールドは、年/月/日/時/分/秒について、14個の数字を4ビットのBinary Coded Decimal(BCD)で符号化したものである。例えば、2001/12/23:01:02:03 は、"0x20011223010203"と符号化される。
durationは、PlayListの総再生時間を時間/分/秒の単位で示した24ビットのフィールドである。このフィールドは、6個の数字を4ビットのBinary Coded Decimal(BCD)で符号化したものである。例えば、01:45:30は、"0x014530"と符号化される。
valid_periodは、PlayListが有効である期間を示す32ビットのフィールドである。このフィールドは、8個の数字を4ビットのBinary Coded Decimal(BCD)で符号化したものである。例えば、記録再生装置1は、この有効期間の過ぎたPlayListを自動消去する、といったように用いられる。例えば、2001/05/07 は、"0x20010507"と符号化される。
maker_idは、そのPlayListを最後に更新したDVRプレーヤ(記録再生装置1)の製造者を示す16ビットの符号なし整数である。maker_idに符号化される値は、DVRフォーマットのライセンサによって割り当てられる。maker_codeは、そのPlayListを最後に更新したDVRプレーヤのモデル番号を示す16ビットの符号なし整数である。maker_codeに符号化される値は、DVRフォーマットのライセンスを受けた製造者によって決められる。
playback_control_flagのフラグが1にセットされている場合、ユーザが正しくPIN番号を入力できた場合にだけ、そのPlayListは再生される。このフラグが0にセットされている場合、ユーザがPIN番号を入力しなくても、ユーザは、そのPlayListを視聴することができる。
write_protect_flagは、図28(A)にテーブルを示すように、1にセットされている場合、write_protect_flagを除いて、そのPlayListの内容は、消去および変更されない。このフラグが0にセットされている場合、ユーザは、そのPlayListを自由に消去および変更できる。このフラグが1にセットされている場合、ユーザが、そのPlayListを消去、編集、または上書きする前に、記録再生装置1はユーザに再確認するようなメッセージを表示させる。
write_protect_flagが0にセットされているReal PlayListが存在し、かつ、そのReal PlayListのClipを参照するVirtual PlayListが存在し、そのVirtual PlayListのwrite_protect_flagが1にセットされていても良い。ユーザが、Real PlayListを消去しようとする場合、記録再生装置1は、そのReal PlayListを消去する前に、上記Virtual PlayListの存在をユーザに警告するか、または、そのReal PlayListを"Minimize"する。
is_played_flagは、図28(B)に示すように、フラグが1にセットされている場合、そのPlayListは、記録されてから一度は再生されたことを示し、0にセットされている場合、そのPlayListは、記録されてから一度も再生されたことがないことを示す。
archiveは、図28(C)に示すように、そのPlayListがオリジナルであるか、コピーされたものであるかを示す2ビットのフィールドである。ref_thumbnail_index のフィールドは、PlayListを代表するサムネイル画像の情報を示す。ref_thumbnail_indexフィールドが、0xFFFFでない値の場合、そのPlayListには、PlayListを代表するサムネイル画像が付加されており、そのサムネイル画像は、menu.thum ファイルの中にストアされている。その画像は、menu.thumファイルの中でref_thumbnail_indexの値を用いて参照される。ref_thumbnail_indexフィールドが、0xFFFF である場合、そのPlayListには、PlayListを代表するサムネイル画像が付加されていない。
次にPlayItemについて説明する。1つのPlayItem()は、基本的に次のデータを含む。Clipのファイル名を指定するためのClip_information_file_name、Clipの再生区間を特定するためのIN_timeとOUT_timeのペア、PlayList()において定義されるCPI_typeがEP_map typeである場合、IN_timeとOUT_timeが参照するところのSTC_sequence_id、および、先行するPlayItemと現在のPlayItemとの接続の状態を示すところのconnection_conditionである。
PlayListが2つ以上のPlayItemから構成される時、それらのPlayItemはPlayListのグローバル時間軸上に、時間のギャップまたはオーバーラップなしに一列に並べられる。PlayList()において定義されるCPI_typeがEP_map typeであり、かつ現在のPlayItemがBridgeSequence()を持たない時、そのPlayItemにおいて定義されるIN_timeとOUT_timeのペアは、STC_sequence_idによって指定される同じSTC連続区間上の時間を指していなければならない。そのような例を図29に示す。
図30は、PlayList()において定義されるCPI_typeがEP_map typeであり、かつ現在のPlayItemがBridgeSequence()を持つ時、次に説明する規則が適用される場合を示している。現在のPlayItemに先行するPlayItemのIN_time (図の中でIN_time1と示されているもの)は、先行するPlayItemのSTC_sequence_idによって指定されるSTC連続区間上の時間を指している。先行するPlayItemのOUT_time(図の中でOUT_time1と示されているもの)は、現在のPlayItemのBridgeSequenceInfo()の中で指定されるBridge-Clipの中の時間を指している。このOUT_timeは、後述する符号化制限に従っていなければならない。
現在のPlayItemのIN_time(図の中でIN_time2と示されているもの)は、現在のPlayItemのBridgeSequenceInfo()の中で指定されるBridge-Clipの中の時間を指している。このIN_timeも、後述する符号化制限に従っていなければならない。現在のPlayItemのOUT_time (図の中でOUT_time2と示されているもの)は、現在のPlayItemのSTC_sequence_idによって指定されるSTC連続区間上の時間を指している。
図31に示すように、PlayList()のCPI_typeがTU_map typeである場合、PlayItemのIN_timeとOUT_timeのペアは、同じClip AVストリーム上の時間を指している。
PlayItemのシンタクスは、図32に示すようになる。図32に示したPlayItemのシンタクスを説明するに、Clip_Information_file_nameのフィールドは、Clip Information fileのファイル名を示す。このClip Information fileのClipInfo()において定義されるClip_stream_typeは、Clip AV streamを示していなければならない。
STC_sequence_idは、8ビットのフィールドであり、PlayItemが参照するSTC連続区間のSTC_sequence_idを示す。PlayList()の中で指定されるCPI_typeがTU_map typeである場合、この8ビットフィールドは何も意味を持たず、0にセットされる。IN_timeは、32ビットフィールドであり、PlayItemの再生開始時刻をストアする。IN_timeのセマンティクスは、図33に示すように、PlayList()において定義されるCPI_typeによって異なる。
OUT_timeは、32ビットフィールドであり、PlayItemの再生終了時刻をストアする。OUT_timeのセマンティクスは、図34に示すように、PlayList()において定義されるCPI_typeによって異なる。
Connection_Conditionは、図35に示したような先行するPlayItemと、現在のPlayItemとの間の接続状態を示す2ビットのフィールドである。図36は、図35に示したConnection_Conditionの各状態について説明する図である。
次に、BridgeSequenceInfoについて、図37を参照して説明する。BridgeSequenceInfo()は、現在のPlayItemの付属情報であり、次に示す情報を持つ。Bridge-Clip AV streamファイルとそれに対応するClip Information fileを指定するBridge_Clip_Information_file_nameを含む。
また、先行するPlayItemが参照するClip AV stream上のソースパケットのアドレスであり、このソースパケットに続いてBridge-Clip AV streamファイルの最初のソースパケットが接続される。このアドレスは、RSPN_exit_from_previous_Clipと称される。さらに現在のPlayItemが参照するClip AV stream上のソースパケットのアドレスであり、このソースパケットの前にBridge-Clip AV streamファイルの最後のソースパケットが接続される。このアドレスは、RSPN_enter_to_current_Clipと称される。
図37において、RSPN_arrival_time_discontinuityは、the Bridge-Clip AV streamファイルの中でアライバルタイムベースの不連続点があるところのソースパケットのアドレスを示す。このアドレスは、ClipInfo()の中において定義される。
図38は、BridgeSequenceinfoのシンタクスを示す図である。図38に示したBridgeSequenceinfoのシンタクスを説明するに、Bridge_Clip_Information_file_nameのフィールドは、Bridge-Clip AV streamファイルに対応するClip Information fileのファイル名を示す。このClip Information fileのClipInfo()において定義されるClip_stream_typeは、'Bridge-Clip AV stream'を示していなければならない。
RSPN_exit_from_previous_Clipの32ビットフィールドは、先行するPlayItemが参照するClip AV stream上のソースパケットの相対アドレスであり、このソースパケットに続いてBridge-Clip AV streamファイルの最初のソースパケットが接続される。RSPN_exit_from_previous_Clipは、ソースパケット番号を単位とする大きさであり、先行するPlayItemが参照するClip AV streamファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。
RSPN_enter_to_current_Clipの32ビットフィールドは、現在のPlayItemが参照するClip AV stream上のソースパケットの相対アドレスであり、このソースパケットの前にBridge-Clip AV streamファイルの最後のソースパケットが接続される。RSPN_exit_from_previous_Clipは、ソースパケット番号を単位とする大きさであり、現在のPlayItemが参照するClip AV streamファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。
次に、SubPlayItemについて、図39を参照して説明する。SubPlayItem()の使用は、PlayList()のCPI_typeがEP_map typeである場合だけに許される。本実施の形態においては、SubPlayItemはオーディオのアフレコの目的のためだけに使用されるとする。SubPlayItem()は、次に示すデータを含む。まず、PlayListの中のsub pathが参照するClipを指定するためのClip_information_file_ nameを含む。
また、Clipの中のsub pathの再生区間を指定するためのSubPath_IN_time と SubPath_OUT_timeを含む。さらに、main pathの時間軸上でsub pathが再生開始する時刻を指定するためのsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。sub pathに参照されるオーディオのClip AV streamは、STC不連続点(システムタイムベースの不連続点)を含んではならない。sub pathに使われるClipのオーディオサンプルのクロックは、main pathのオーディオサンプルのクロックにロックされている。
図40は、SubPlayItemのシンタクスを示す図である。図40に示したSubPlayItemのシンタクスを説明するに、Clip_Information_file_nameのフィールドは、Clip Information fileのファイル名を示し、それはPlayListの中でsub pathによって使用される。このClip Information fileのClipInfo()において定義されるClip_stream_typeは、Clip AV streamを示していなければならない。
SubPath_typeの8ビットのフィールドは、sub pathのタイプを示す。ここでは、図41に示すように、'0x00'しか設定されておらず、他の値は、将来のために確保されている。
sync_PlayItem_idの8ビットのフィールドは、main pathの時間軸上でsub pathが再生開始する時刻が含まれるPlayItemのPlayItem_idを示す。所定のPlayItemに対応するPlayItem_idの値は、PlayList()において定義される(図25参照)。
sync_start_PTS_of_PlayItemの32ビットのフィールドは、main pathの時間軸上でsub pathが再生開始する時刻を示し、sync_PlayItem_idで参照されるPlayItem上のPTS(Presentaiotn Time Stamp)の上位32ビットを示す。SubPath_IN_timeの32ビットフィールドは、Sub pathの再生開始時刻をストアする。SubPath_IN_timeは、Sub Pathの中で最初のプレゼンテーションユニットに対応する33ビット長のPTSの上位32ビットを示す。
SubPath_OUT_timeの32ビットフィールドは、Sub pathの再生終了時刻をストアする。SubPath_OUT_timeは、次式によって算出されるPresentation_end_TSの値の上位32ビットを示す。
Presentation_end_TS = PTS_out + AU_duration
ここで、PTS_outは、SubPathの最後のプレゼンテーションユニットに対応する33ビット長のPTSである。AU_durationは、SubPathの最後のプレゼンテーションユニットの90kHz単位の表示期間である。
次に、図23に示したxxxxx.rplsとyyyyy.vplsのシンタクス内のPlayListMark()について説明する。PlayListについてのマーク情報は、このPlayListMarkにストアされる。図42は、PlayListMarkのシンタクスを示す図である。図42に示したPlayListMarkのシンタクスについて説明するに、version_numberは、このPlayListMark()のバージョンナンバを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からPlayListMark()の最後までのPlayListMark()のバイト数を示す32ビットの符号なし整数である。number_of_PlayList_marksは、PlayListMarkの中にストアされているマークの個数を示す16ビットの符号なし整数である。number_of_PlayList_marks は、0であってもよい。mark_typeは、マークのタイプを示す8ビットのフィールドであり、図43に示すテーブルに従って符号化される。
mark_time_stampの32ビットフィールドは、マークが指定されたポイントを示すタイムスタンプをストアする。mark_time_stampのセマンティクスは、図44に示すように、PlayList()において定義されるCPI_typeによって異なる。PlayItem_idは、マークが置かれているところのPlayItemを指定する8ビットのフィールドである。所定のPlayItemに対応するPlayItem_idの値は、PlayList()において定義される(図25参照)。
character_setの8ビットのフィールドは、mark_nameフィールドに符号化されているキャラクター文字の符号化方法を示す。その符号化方法は、図19に示した値に対応する。name_lengthの8ビットフィールドは、Mark_nameフィールドの中に示されるマーク名のバイト長を示す。mark_nameのフィールドは、マークの名称を示す。このフィールドの中の左からname_length数のバイト数が、有効なキャラクター文字であり、それはマークの名称を示す。Mark_nameフィールドの中で、それら有効なキャラクター文字の後の値は、どのような値が設定されても良い。
ref_thumbnail_indexのフィールドは、マークに付加されるサムネイル画像の情報を示す。ref_thumbnail_indexフィールドが、0xFFFFでない値の場合、そのマークにはサムネイル画像が付加されており、そのサムネイル画像は、mark.thmbファイルの中にストアされている。その画像は、mark.thmbファイルの中でref_thumbnail_indexの値を用いて参照される(後述)。ref_thumbnail_indexフィールドが、0xFFFF である場合、そのマークにはサムネイル画像が付加されていない事を示す。
次に、Clip information fileについて説明する。zzzzz.clpi(Clip information fileファイル)は、図45に示すように6個のオブジェクトから構成される。それらは、ClipInfo()、STC_Info()、ProgramInfo()、CPI()、ClipMark()、およびMakerPrivateData()である。AVストリーム(Clip AVストリームまたはBridge-Clip AV stream)とそれに対応するClip Informationファイルは、同じ数字列の"zzzzz"が使用される。
図45に示したzzzzz.clpi(Clip information fileファイル)のシンタクスについて説明するに、ClipInfo_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、ClipInfo()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
STC_Info_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、STC_Info()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。ProgramInfo_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、ProgramInfo()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。CPI_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、CPI()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
ClipMark_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、ClipMark()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。MakerPrivateData_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、MakerPrivateData ()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。padding_word(パディングワード)は、zzzzz.clpiファイルのシンタクスにしたがって挿入される。N1,N2,N3,N4、およびN5は、ゼロまたは任意の正の整数でなければならない。それぞれのパディングワードは、任意の値がとられるようにしても良い。
次に、ClipInfoについて説明する。図46は、ClipInfoのシンタクスを示す図である。ClipInfo()は、それに対応するAVストリームファイル(Clip AVストリームまたはBridge-Clip AVストリームファイル)の属性情報をストアする。
図46に示したClipInfoのシンタクスについて説明するに、version_numberは、このClipInfo()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。lengthは、このlengthフィールドの直後からClipInfo()の最後までのClipInfo()のバイト数を示す32ビットの符号なし整数である。Clip_stream_typeの8ビットのフィールドは、図47に示すように、Clip Informationファイルに対応するAVストリームのタイプを示す。それぞれのタイプのAVストリームのストリームタイプについては後述する。
offset_SPNの32ビットのフィールドは、AVストリーム(Clip AVストリームまたはBridge-Clip AVストリーム)ファイルの最初のソースパケットについてのソースパケット番号のオフセット値を与える。AVストリームファイルが最初にディスクに記録される時、このoffset_SPNは0でなければならない。
図48に示すように、AVストリームファイルのはじめの部分が編集によって消去された時、offset_SPNは、ゼロ以外の値をとっても良い。本実施の形態では、offset_SPNを参照する相対ソースパケット番号(相対アドレス)が、しばしば、RSPN_xxx(xxxは変形する。例.RSPN_EP_start)の形式でシンタクスの中に記述されている。相対ソースパケット番号は、ソースパケット番号を単位とする大きさであり、AVストリームファイルの最初のソースパケットからoffset_SPNの値を初期値としてカウントされる。
AVストリームファイルの最初のソースパケットから相対ソースパケット番号で参照されるソースパケットまでのソースパケットの数(SPN_xxx)は、次式で算出される。
SPN_xxx = RSPN_xxx - offset_SPN
図48に、offset_SPNが4である場合の例を示す。
TS_recording_rateは、24ビットの符号なし整数であり、この値は、DVRドライブ(書き込み部22)へまたはDVRドライブ(読み出し部28)からのAVストリームの必要な入出力のビットレートを与える。record_time_and_dateは、Clipに対応するAVストリームが記録された時の日時をストアする56ビットのフィールドであり、年/月/日/時/分/秒について、14個の数字を4ビットのBinary Coded Decimal(BCD)で符号化したものである。例えば、2001/12/23:01:02:03は、"0x20011223010203"と符号化される。
durationは、Clipの総再生時間をアライバルタイムクロックに基づいた時間/分/秒の単位で示した24ビットのフィールドである。このフィールドは、6個の数字を4ビットのBinary Coded Decimal(BCD)で符号化したものである。例えば、01:45:30は、"0x014530"と符号化される。
time_controlled_flag:のフラグは、AVストリームファイルの記録モードを示す。このtime_controlled_flagが1である場合、記録モードは、記録してからの時間経過に対してファイルサイズが比例するようにして記録されるモードであることを示し、次式に示す条件を満たさなければならない。
TS_average_rate192/188(t - start_time)−α <= size_clip(t)
<= TS_average_rate*192/188*(t - start_time)+α
ここで、TS_average_rateは、AVストリームファイルのトランスポートストリームの平均ビットレートをbytes/second の単位で表したものである。
また、上式において、tは、秒単位で表される時間を示し、start_timeは、AVストリームファイルの最初のソースパケットが記録された時の時刻であり、秒単位で表される。size_clip(t)は、 時刻tにおけるAVストリームファイルのサイズをバイト単位で表したものであり、例えば、start_timeから時刻tまでに10個のソースパケットが記録された場合、size_clip(t)は10*192バイトである。αは、TS_average_rateに依存する定数である。
time_controlled_flagが0にセットされている場合、記録モードは、記録の時間経過とAVストリームのファイルサイズが比例するように制御していないことを示す。例えば、これは入力トランスポートストリームをトランスペアレント記録する場合である。
TS_average_rateは、time_controlled_flagが1にセットされている場合、この24ビットのフィールドは、上式で用いているTS_average_rateの値を示す。time_controlled_flagが0にセットされている場合、このフィールドは、何も意味を持たず、0にセットされなければならない。例えば、可変ビットレートのトランスポートストリームは、次に示す手順により符号化される。まずトランスポートレートをTS_recording_rateの値にセットする。次に、ビデオストリームを可変ビットレートで符号化する。そして、ヌルパケットを使用しない事によって、間欠的にトランスポートパケットを符号化する。
RSPN_arrival_time_discontinuityの32ビットフィールドは、Bridge-Clip AV streamファイル上でアライバルタイムベースの不連続が発生する場所の相対アドレスである。RSPN_arrival_time_discontinuityは、ソースパケット番号を単位とする大きさであり、Bridge-Clip AV streamファイルの最初のソースパケットからClipInfo() において定義されるoffset_SPNの値を初期値としてカウントされる。そのBridge-Clip AV streamファイルの中での絶対アドレスは、上述した
SPN_xxx = RSPN_xxx - offset_SPN
に基づいて算出される。
reserved_for_system_useの144ビットのフィールドは、システム用にリザーブされている。is_format_identifier_validのフラグが1である時、format_identifierのフィールドが有効であることを示す。is_original_network_ID_validのフラグが1である場合、original_network_IDのフィールドが有効であることを示す。is_transport_stream_ID_validのフラグが1である場合、transport_stream_IDのフィールドが有効であることを示す。is_servece_ID_validのフラグが1である場合、servece_IDのフィールドが有効であることを示す。
is_ country_code_validのフラグが1である時、country_codeのフィールドが有効であることを示す。format_identifierの32ビットフィールドは、トランスポートストリームの中でregistration deascriotor(ISO/IEC13818-1で定義されている)が持つformat_identifierの値を示す。original_network_IDの16ビットフィールドは、トランスポートストリームの中で定義されているoriginal_network_IDの値を示す。transport_stream_IDの16ビットフィールドは、トランスポートストリームの中で定義されているtransport_stream_IDの値を示す。
servece_IDの16ビットフィールドは、トランスポートストリームの中で定義されているservece_IDの値を示す。country_codeの24ビットのフィールドは、ISO3166によって定義されるカントリーコードを示す。それぞれのキャラクター文字は、ISO8859-1で符号化される。例えば、日本は"JPN"と表され、"0x4A 0x50 0x4E"と符号化される。stream_format_nameは、トランスポートストリームのストリーム定義をしているフォーマット機関の名称を示すISO-646の16個のキャラクターコードである。このフィールドの中の無効なバイトは、値'0xFF'がセットされる。
format_identifier、original_network_ID、transport_stream_ID、 servece_ID,country_code 、およびstream_format_nameは、トランスポートストリームのサービスプロバイダを示すものであり、これにより、オーディオやビデオストリームの符号化制限、SI(サービスインフォメーション)の規格やオーディオビデオストリーム以外のプライベートデータストリームのストリーム定義を認識することができる。これらの情報は、デコーダが、そのストリームをデコードできるか否か、そしてデコードできる場合にデコード開始前にデコーダシステムの初期設定を行うために用いることが可能である。
次に、STC_Infoについて説明する。ここでは、MPEG-2トランスポートストリームの中でSTCの不連続点(システムタイムベースの不連続点)を含まない時間区間をSTC_sequenceと称し、Clipの中で、STC_sequenceは、STC_sequence_idの値によって特定される。図50は、連続なSTC区間について説明する図である。同じSTC_sequenceの中で同じSTCの値は、決して現れない(ただし、後述するように、Clipの最大時間長は制限されている)。従って、同じSTC_sequenceの中で同じPTSの値もまた、決して現れない。AVストリームが、N(N>0)個のSTC不連続点を含む場合、Clipのシステムタイムベースは、(N+1)個のSTC_sequenceに分割される。
STC_Infoは、STCの不連続(システムタイムベースの不連続)が発生する場所のアドレスをストアする。図51を参照して説明するように、RSPN_STC_startが、そのアドレスを示し、最後のSTC_sequenceを除くk番目(k>=0)のSTC_sequenceは、k番目のRSPN_STC_startで参照されるソースパケットが到着した時刻から始まり、(k+1)番目のRSPN_STC_startで参照されるソースパケットが到着した時刻で終わる。最後のSTC_sequenceは、最後のRSPN_STC_startで参照されるソースパケットが到着した時刻から始まり、最後のソースパケットが到着した時刻で終了する。
図52は、STC_Infoのシンタクスを示す図である。図52に示したSTC_Infoのシンタクスについて説明するに、version_numberは、このSTC_Info()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からSTC_Info()の最後までのSTC_Info()のバイト数を示す32ビットの符号なし整数である。CPI()のCPI_typeがTU_map typeを示す場合、このlengthフィールドはゼロをセットしても良い。CPI()のCPI_typeがEP_map typeを示す場合、num_of_STC_sequencesは1以上の値でなければならない。
num_of_STC_sequencesの8ビットの符号なし整数は、Clipの中でのSTC_sequenceの数を示す。この値は、このフィールドに続くfor-loopのループ回数を示す。所定のSTC_sequenceに対応するSTC_sequence_idは、RSPN_STC_startを含むfor-loopの中で、そのSTC_sequenceに対応するRSPN_STC_startの現れる順番により定義されるものである。STC_sequence_idは、0から開始される。
RSPN_STC_startの32ビットフィールドは、AVストリームファイル上でSTC_sequenceが開始するアドレスを示す。RSPN_STC_startは、AVストリームファイルの中でシステムタイムベースの不連続点が発生するアドレスを示す。RSPN_STC_startは、AVストリームの中で新しいシステムタイムベースの最初のPCRを持つソースパケットの相対アドレスとしても良い。RSPN_STC_startは、ソースパケット番号を単位とする大きさであり、AVストリームファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。そのAV streamファイルの中での絶対アドレスは、既に上述した
SPN_xxx = RSPN_xxx - offset_SPN
により算出される。
次に、図45に示したzzzzz.clipのシンタクス内のProgramInfoについて説明する。図53を参照しながら説明するに、ここでは、Clipの中で次の特徴をもつ時間区間をprogram_sequenceと呼ぶ。まず、PCR_PIDの値が変わらない。次に、ビデオエレメンタリーストリームの数が変化しない。また、それぞれのビデオストリームについてのPIDの値とそのVideoCodingInfoによって定義される符号化情報が変化しない。さらに、オーディオエレメンタリーストリームの数が変化しない。また、それぞれのオーディオストリームについてのPIDの値とそのAudioCodingInfoによって定義される符号化情報が変化しない。
program_sequenceは、同一の時刻において、ただ1つのシステムタイムベースを持つ。program_sequenceは、同一の時刻において、ただ1つのPMTを持つ。ProgramInfo()は、program_sequenceが開始する場所のアドレスをストアする。RSPN_program_sequence_startが、そのアドレスを示す。
図54は、ProgramInfoのシンタクスを示す図である。図54に示したProgramInfoのシンタクを説明するに、version_numberは、このProgramInfo()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からProgramInfo()の最後までのProgramInfo()のバイト数を示す32ビットの符号なし整数である。CPI()のCPI_typeがTU_map typeを示す場合、このlengthフィールドはゼロにセットされても良い。CPI()のCPI_typeがEP_map typeを示す場合、number_of_programsは1以上の値でなければならない。
number_of_program_sequencesの8ビットの符号なし整数は、Clipの中でのprogram_sequenceの数を示す。この値は、このフィールドに続くfor-loopのループ回数を示す。Clipの中でprogram_sequenceが変化しない場合、number_of_program_sequencesは1をセットされなければならない。RSPN_program_sequence_startの32ビットフィールドは、AVストリームファイル上でプログラムシーケンスが開始する場所の相対アドレスである。
RSPN_program_sequence_startは、ソースパケット番号を単位とする大きさであり、AVストリームファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。そのAVストリームファイルの中での絶対アドレスは、
SPN_xxx = RSPN_xxx - offset_SPN
により算出される。シンタクスのfor-loopの中でRSPN_program_sequence_start値は、昇順に現れなければならない。
PCR_PIDの16ビットフィールドは、そのprogram_sequenceに有効なPCRフィールドを含むトランスポートパケットのPIDを示す。number_of_videosの8ビットフィールドは、video_stream_PIDとVideoCodingInfo()を含むfor-loopのループ回数を示す。number_of_audiosの8ビットフィールドは、audio_stream_PIDとAudioCodingInfo()を含むfor-loopのループ回数を示す。video_stream_PIDの16ビットフィールドは、そのprogram_sequenceに有効なビデオストリームを含むトランスポートパケットのPIDを示す。このフィールドに続くVideoCodingInfo()は、そのvideo_stream_PIDで参照されるビデオストリームの内容を説明しなければならない。
audio_stream_PIDの16ビットフィールドは、そのprogram_sequenceに有効なオーディオストリームを含むトランスポートパケットのPIDを示す。このフィールドに続くAudioCodingInfo()は、そのaudio_stream_PIDで参照されるビデオストリームの内容を説明しなければならない。
なお、シンタクスのfor-loopの中でvideo_stream_PIDの値の現れる順番は、そのprogram_sequenceに有効なPMTの中でビデオストリームのPIDが符号化されている順番に等しくなければならない。また、シンタクスのfor-loopの中でaudio_stream_PIDの値の現れる順番は、そのprogram_sequenceに有効なPMTの中でオーディオストリームのPIDが符号化されている順番に等しくなければならない。
図55は、図54に示したPrograminfoのシンタクス内のVideoCodingInfoのシンタクスを示す図である。図55に示したVideoCodingInfoのシンタクスを説明するに、video_formatの8ビットフィールドは、図56に示すように、ProgramInfo()の中のvideo_stream_PIDに対応するビデオフォーマットを示す。
frame_rateの8ビットフィールドは、図57に示すように、ProgramInfo()の中のvideo_stream_PIDに対応するビデオのフレームレートを示す。display_aspect_ratioの8ビットフィールドは、図58に示すように、ProgramInfo()の中のvideo_stream_PIDに対応するビデオの表示アスペクト比を示す。
図59は、図54に示したPrograminfoのシンタクス内のAudioCodingInfoのシンタクスを示す図である。図59に示したAudioCodingInfoのシンタクスを説明するに、audio_codingの8ビットフィールドは、図60に示すように、ProgramInfo()の中のaudio_stream_PIDに対応するオーディオの符号化方法を示す。
audio_component_typeの8ビットフィールドは、図61に示すように、ProgramInfo()の中のaudio_stream_PIDに対応するオーディオのコンポーネントタイプを示す。sampling_frequencyの8ビットフィールドは、図62に示すように、ProgramInfo()の中のaudio_stream_PIDに対応するオーディオのサンプリング周波数を示す。
次に、図45に示したzzzzz.clipのシンタクス内のCPI (Characteristic Point Information)について説明する。CPIは、AVストリームの中の時間情報とそのファイルの中のアドレスとを関連づけるためにある。CPIには2つのタイプがあり、それらはEP_mapとTU_mapである。図63に示すように、CPI()の中のCPI_typeがEP_map typeの場合、そのCPI()はEP_mapを含む。図64に示すように、CPI()の中のCPI_typeがTU_map typeの場合、そのCPI()はTU_mapを含む。1つのAVストリームは、1つのEP_mapまたは1つのTU_mapを持つ。AVストリームがSESFトランスポートストリームの場合、それに対応するClipはEP_mapを持たなければならない。
図65は、CPIのシンタクスを示す図である。図65に示したCPIのシンタクスを説明するに、version_numberは、このCPI()のバージョンナンバを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。lengthは、このlengthフィールドの直後からCPI()の最後までのCPI()のバイト数を示す32ビットの符号なし整数である。CPI_typeは、図66に示すように、1ビットのフラグであり、ClipのCPIのタイプを表す。
次に、図65に示したCPIのシンタクス内のEP_mapについて説明する。EP_mapには、2つのタイプがあり、それはビデオストリーム用のEP_mapとオーディオストリーム用のEP_mapである。EP_mapの中のEP_map_typeが、EP_mapのタイプを区別する。Clipが1つ以上のビデオストリームを含む場合、ビデオストリーム用のEP_mapが使用されなければならない。Clipがビデオストリームを含まず、1つ以上のオーディオストリームを含む場合、オーディオストリーム用のEP_mapが使用されなければならない。
ビデオストリーム用のEP_mapについて図67を参照して説明する。ビデオストリーム用のEP_mapは、stream_PID、PTS_EP_start、および、RSPN_EP_startというデータを持つ。stream_PIDは、ビデオストリームを伝送するトランスポートパケットのPIDを示す。PTS_EP_startは、ビデオストリームのシーケンスヘッダから始めるアクセスユニットのPTSを示す。RSPN_EP_startは、AVストリームの中でPTS_EP_startにより参照されるアクセスユニットの第1バイト目を含むソースポケットのアドレスを示す。
EP_map_for_one_stream_PID()と呼ばれるサブテーブルは、同じPIDを持つトランスポートパケットによって伝送されるビデオストリーム毎に作られる。Clipの中に複数のビデオストリームが存在する場合、EP_mapは複数のEP_map_for_one_stream_PID()を含んでも良い。
オーディオストリーム用のEP_mapは、stream_PID、PTS_EP_start、およびRSPN_EP_startというデータを持つ。stream_PIDは、オーディオストリームを伝送するトランスポートパケットのPIDを示す。PTS_EP_startは、オーディオストリームのアクセスユニットのPTSを示す。RSPN_EP_startは、AVストリームの中でPTS_EP_startで参照されるアクセスユニットの第1バイト目を含むソースポケットのアドレスを示す。
EP_map_for_one_stream_PID()と呼ばれるサブテーブルは、同じPIDを持つトランスポートパケットによって伝送されるオーディオストリーム毎に作られる。Clipの中に複数のオーディオストリームが存在する場合、EP_mapは複数のEP_map_for_one_stream_PID()を含んでも良い。
EP_mapとSTC_Infoの関係を説明するに、1つのEP_map_for_one_stream_PID()は、STCの不連続点に関係なく1つのテーブルに作られる。RSPN_EP_startの値とSTC_Info()において定義されるRSPN_STC_startの値を比較する事により、それぞれのSTC_sequenceに属するEP_mapのデータの境界が分かる(図68を参照)。EP_mapは、同じPIDで伝送される連続したストリームの範囲に対して、1つのEP_map_for_one_stream_PIDを持たねばならない。図69に示したような場合、program#1とprogram#3は、同じビデオPIDを持つが、データ範囲が連続していないので、それぞれのプログラム毎にEP_map_for_one_stream_PIDを持たねばならない。
図70は、EP_mapのシンタクスを示す図である。図70に示したEP_mapのシンタクスを説明するに、EP_typeは、4ビットのフィールドであり、図71に示すように、EP_mapのエントリーポイントタイプを示す。EP_typeは、このフィールドに続くデータフィールドのセマンティクスを示す。Clipが1つ以上のビデオストリームを含む場合、EP_typeは0('video')にセットされなければならない。または、Clipがビデオストリームを含まず、1つ以上のオーディオストリームを含む場合、EP_typeは1('audio')にセットされなければならない。
number_of_stream_PIDsの16ビットのフィールドは、EP_map()の中のnumber_of_stream_PIDsを変数にもつfor-loopのループ回数を示す。stream_PID(k)の16ビットのフィールドは、EP_map_for_one_stream_PID(num_EP_entries(k))によって参照されるk番目のエレメンタリーストリーム(ビデオまたはオーディオストリーム)を伝送するトランスポートパケットのPIDを示す。EP_typeが0 ('video')に等しい場合、そのエレメンタリーストリームはビデオストリームでなけれならない。また、EP_typeが1('audio')に等しい場合、そのエレメンタリーストリームはオーディオストリームでなければならない。
num_EP_entries(k)の16ビットのフィールドは、EP_map_for_one_stream_PID(num_EP_entries(k))によって参照されるnum_EP_entries(k)を示す。EP_map_for_one_stream_PID_Start_address(k): この32ビットのフィールドは、EP_map()の中でEP_map_for_one_stream_PID(num_EP_entries(k))が始まる相対バイト位置を示す。この値は、EP_map()の第1バイト目からの大きさで示される。
padding_wordは、EP_map()のシンタクスにしたがって挿入されなければならない。XとYは、ゼロまたは任意の正の整数でなければならない。それぞれのパディングワードは、任意の値を取っても良い。
図72は、EP_map_for_one_stream_PIDのシンタクスを示す図である。図72に示したEP_map_for_one_stream_PIDのシンタクスを説明するに、PTS_EP_startの32ビットのフィールドのセマンティクスは、EP_map()において定義されるEP_typeにより異なる。EP_typeが0 ('video')に等しい場合、このフィールドは、ビデオストリームのシーケンスヘッダで始まるアクセスユニットの33ビット精度のPTSの上位32ビットを持つ。EP_typeが1 ('audio')に等しい場合、このフィールドは、オーディオストリームのアクセスユニットの33ビット精度のPTSの上位32ビットを持つ。
RSPN_EP_startの32ビットのフィールドのセマンティクスは、EP_map()において定義されるEP_typeにより異なる。EP_typeが0 ('video')に等しい場合、このフィールドは、AVストリームの中でPTS_EP_startにより参照されるアクセスユニットのシーケンスヘッダの第1バイト目を含むソースポケットの相対アドレスを示す。または、EP_typeが1 ('audio')に等しい場合、このフィールドは、AVストリームの中でPTS_EP_startにより参照されるアクセスユニットのオーディオフレームの第一バイト目を含むソースポケットの相対アドレスを示す。
RSPN_EP_startは、ソースパケット番号を単位とする大きさであり、AVストリームファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。そのAVストリームファイルの中での絶対アドレスは、
SPN_xxx = RSPN_xxx - offset_SPN
により算出される。シンタクスのfor-loopの中でRSPN_EP_startの値は、昇順に現れなければならない。
次に、TU_mapについて、図73を参照して説明する。TU_mapは、ソースパケットのアライバルタイムクロック(到着時刻ベースの時計)に基づいて、1つの時間軸を作る。その時間軸は、TU_map_time_axisと呼ばれる。TU_map_time_axisの原点は、TU_map()の中のoffset_timeによって示される。TU_map_time_axisは、offset_timeから一定の単位に分割される。その単位を、time_unitと称する。
AVストリームの中の各々のtime_unitの中で、最初の完全な形のソースパケットのAVストリームファイル上のアドレスが、TU_mapにストアされる。これらのアドレスを、RSPN_time_unit_startと称する。TU_map_time_axis上において、k (k>=0)番目のtime_unitが始まる時刻は、TU_start_time(k)と呼ばれる。この値は次式に基づいて算出される。
TU_start_time(k) = offset_time + k*time_unit_size
TU_start_time(k)は、45kHzの精度を持つ。
図74は、TU_mapのシンタクスを示す図である。図74に示したTU_mapのシンタクスを説明するに、offset_timeの32bit長のフィールドは、TU_map_time_axisに対するオフセットタイムを与える。この値は、Clipの中の最初のtime_unitに対するオフセット時刻を示す。offset_timeは、27MHz精度のアライバルタイムクロックから導き出される45kHzクロックを単位とする大きさである。AVストリームが新しいClipとして記録される場合、offset_timeはゼロにセットされなければならない。
time_unit_sizeの32ビットフィールドは、time_unitの大きさを与えるものであり、それは27MHz精度のアライバルタイムクロックから導き出される45kHzクロックを単位とする大きさである。time_unit_sizeは、1秒以下(time_unit_size<=45000)にすることが良い。number_of_time_unit_entriesの32ビットフィールドは、TU_map()の中にストアされているtime_unitのエントリー数を示す。
RSPN_time_unit_startの32ビットフィールドは、AVストリームの中でそれぞれのtime_unitが開始する場所の相対アドレスを示す。RSPN_time_unit_startは、ソースパケット番号を単位とする大きさであり、AV streamファイルの最初のソースパケットからClipInfo()において定義されるoffset_SPNの値を初期値としてカウントされる。そのAV streamファイルの中での絶対アドレスは、
SPN_xxx = RSPN_xxx - offset_SPN
により算出される。シンタクスのfor-loopの中でRSPN_time_unit_startの値は、昇順に現れなければならない。(k+1)番目のtime_unitの中にソースパケットが何もない場合、(k+1)番目のRSPN_time_unit_startは、k番目のRSPN_time_unit_startと等しくなければならない。
図45に示したzzzzz.clipのシンタクス内のClipMarkについて説明する。ClipMarkは、クリップについてのマーク情報であり、ClipMarkの中にストアされる。このマークは、記録器(記録再生装置1)によってセットされるものであり、ユーザによってセットされるものではない。
図75は、ClipMarkのシンタクスを示す図である。図75に示したClipMarkのシンタクスを説明するに、version_numberは、このClipMark()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からClipMark()の最後までのClipMark()のバイト数を示す32ビットの符号なし整数である。number_of_Clip_marksは、 ClipMarkの中にストアされているマークの個数を示す16ビットの符号なし整数。number_of_Clip_marks は、0であってもよい。mark_typeは、マークのタイプを示す8ビットのフィールドであり、図76に示すテーブルに従って符号化
される。
mark_time_stampは、32ビットフィールドであり、マークが指定されたポイントを示すタイムスタンプをストアする。mark_time_stampのセマンティクスは、図77に示すように、PlayList()の中のCPI_typeにより異なる。
STC_sequence_idは、CPI()の中のCPI_typeがEP_map typeを示す場合、この8ビットのフィールドは、マークが置かれているところのSTC連続区間のSTC_sequence_idを示す。CPI()の中のCPI_typeがTU_map typeを示す場合、この8ビットのフィールドは何も意味を持たず、ゼロにセットされる。character_setの8ビットのフィールドは、mark_nameフィールドに符号化されているキャラクター文字の符号化方法を示す。その符号化方法は、図19に示される値に対応する。
name_lengthの8ビットフィールドは、Mark_nameフィールドの中に示されるマーク名のバイト長を示す。mark_nameのフィールドは、マークの名称を示す。このフィールドの中の左からname_length数のバイト数が、有効なキャラクター文字であり、それはマークの名称を示す。mark_nameフィールドの中で、それら有効なキャラクター文字の後の値は、どんな値が入っていても良い。
ref_thumbnail_indexのフィールドは、マークに付加されるサムネイル画像の情報を示す。ref_thumbnail_indexフィールドが、0xFFFFでない値の場合、そのマークにはサムネイル画像が付加されており、そのサムネイル画像は、mark.thmbファイルの中にストアされている。その画像は、mark.thmbファイルの中でref_thumbnail_indexの値を用いて参照される。ref_thumbnail_indexフィールドが、0xFFFF である場合、そのマークにはサムネイル画像が付加されていない。
MakersPrivateDataについては、図22を参照して既に説明したので、その説明は省略する。
次に、サムネイルインフォメーション(Thumbnail Information)について説明する。サムネイル画像は、menu.thmbファイルまたはmark.thmbファイルにストアされる。これらのファイルは同じシンタクス構造であり、ただ1つのThumbnail()を持つ。menu.thmbファイルは、メニューサムネイル画像,すなわちVolumeを代表する画像、および、それぞれのPlayListを代表する画像をストアする。すべてのメニューサムネイルは、ただ1つのmenu.thmbファイルにストアされる。
mark.thmbファイルは、マークサムネイル画像,すなわちマーク点を表すピクチャをストアする。すべてのPlayListおよびClipに対するすべてのマークサムネイルは、ただ1つのmark.thmbファイルにストアされる。サムネイルは頻繁に追加、削除されるので、追加操作と部分削除の操作は容易に高速に実行できなければならない。この理由のため、Thumbnail()はブロック構造を有する。画像のデータはいくつかの部分に分割され、各部分は1つのtn_blockに格納される。1つの画像データはは連続したtn_blockに格納される。tn_blockの列には、使用されていないtn_blockが存在してもよい。1つのサムネイル画像のバイト長は可変である。
図78は、menu.thmbとmark.thmbのシンタクスを示す図であり、図79は、図78に示したmenu.thmbとmark.thmbのシンタクス内のThumbnailのシンタクスを示す図である。図79に示したThumbnailのシンタクスについて説明するに、version_numberは、このThumbnail()のバージョンナンバーを示す4個のキャラクター文字である。version_numberは、ISO 646に従って、"0045"と符号化されなければならない。
lengthは、このlengthフィールドの直後からThumbnail()の最後までのMakersPrivateData()のバイト数を示す32ビットの符号なし整数である。tn_blocks_start_addressは、Thumbnail()の先頭のバイトからの相対バイト数を単位として、最初のtn_blockの先頭バイトアドレスを示す32ビットの符号なし整数である。相対バイト数はゼロからカウントされる。number_of_thumbnailsは、Thumbnail()の中に含まれているサムネイル画像のエントリー数を与える16ビットの符号なし整数である。
tn_block_sizeは、1024バイトを単位として、1つのtn_blockの大きさを与える16ビットの符号なし整数である。例えば、tn_block_size=1ならば、それは1つのtn_blockの大きさが1024バイトであることを示す。number_of_tn_blocksは、このThumbnail()中のtn_blockのエントリ数を表す116ビットの符号なし整数である。thumbnail_indexは、このthumbnail_indexフィールドから始まるforループ一回分のサムネイル情報で表されるサムネイル画像のインデクス番号を表す16ビットの符号なし整数である。thumbnail_index として、0xFFFFという値を使用してはならない。thumbnail_index はUIAppInfoVolume()、UIAppInfoPlayList()、 PlayListMark()、およびClipMark()の中のref_thumbnail_indexによって参照される。
thumbnail_picture_formatは、サムネイル画像のピクチャフォーマットを表す8ビットの符号なし整数で、図80に示すような値をとる。表中のDCFとPNGは"menu.thmb"内でのみ許される。マークサムネイルは、値"0x00" (MPEG-2 Video I-picture)をとらなければならない。
picture_data_sizeは、サムネイル画像のバイト長をバイト単位で示す32ビットの符号なし整数である。start_tn_block_numberは、サムネイル画像のデータが始まるtn_blockのtn_block番号を表す16ビットの符号なし整数である。サムネイル画像データの先頭は、tb_blockの先頭と一致していなければならない。tn_block番号は、0から始まり、tn_blockのfor-ループ中の変数kの値に関係する。
x_picture_lengthは、サムネイル画像のフレーム画枠の水平方向のピクセル数を表す16ビットの符号なし整数である。y_picture_lengthは、サムネイル画像のフレーム画枠の垂直方向のピクセル数を表す16ビットの符号なし整数である。tn_blockは、 サムネイル画像がストアされる領域である。Thumbnail()の中のすべてのtn_blockは、同じサイズ(固定長)であり、その大きさはtn_block_sizeによって定義される。
図81は、サムネイル画像データがどのようにtn_blockに格納されるかを模式的に表した図である。図81のように、各サムネイル画像データはtn_blockの先頭から始まり、1 tn_blockを超える大きさの場合は、連続する次のtn_blockを使用してストアされる。このようにすることにより、可変長であるピクチャデータが、固定長のデータとして管理することが可能となり、削除といった編集に対して簡便な処理により対応する事ができるようになる。
次に、AVストリームファイルについて説明する。AVストリームファイルは、"M2TS"ディレクトリ(図14)にストアされる。AVストリームファイルには、2つのタイプがあり、それらは、Clip AVストリームとBridge-Clip AVストリームファイルである。両方のAVストリーム共に、これ以降で定義されるDVR MPEG-2トランスポートストリームファイルの構造でなければならない。
まず、DVR MPEG-2 トランスポートストリームについて説明する。DVR MPEG-2 トランスポートストリームの構造は、図82に示すようになっている。AVストリームファイルは、DVR MPEG2トランスポートストリームの構造を持つ。DVR MPEG2トランスポートストリームは、整数個のAligned unitから構成される。Aligned unitの大きさは、6144 バイト (2048*3 バイト)である。Aligned unitは、ソースパケットの第1バイト目から始まる。ソースパケットは、192バイト長である。1つのソースパケットは、TP_extra_headerとトランスポートパケットから成る。TP_extra_headerは、4バイト長であり、またトランスポートパケットは、188バイト長である。
1つのAligned unitは、32個のソースパケットから成る。DVR MPEG2トランスポートストリームの中の最後のAligned unitも、また32個のソースパケットから成る。よって、DVR MPEG2トランスポートストリームは、Aligned unitの境界で終端する。ディスクに記録される入力トランスポートストリームのトランスポートパケットの数が32の倍数でない時、ヌルパケット(PID=0x1FFFのトランスポートパケット)を持ったソースパケットを最後のAligned unitに使用しなければならない。ファイルシステムは、DVR MPEG2トランスポートストリームに余分な情報を付加してはならない。
図83に、DVR MPEG-2トランスポートストリームのレコーダモデルを示す。図83に示したレコーダは、レコーディングプロセスを規定するための概念上のモデルである。DVR MPEG-2トランスポートストリームは、このモデルに従う。
MPEG-2トランスポートストリームの入力タイミングについて説明する。入力MPEG2トランスポートストリームは、フルトランスポートストリームまたはパーシャルトランスポートストリームである。入力されるMPEG2トランスポートストリームは、ISO/IEC13818-1またはISO/IEC13818-9に従っていなければならない。MPEG2トランスポートストリームのi番目のバイトは、T-STD(ISO/IEC 13818-1で規定されるTransport stream system target decoder)とソースパケッタイザーへ、時刻t(i)に同時に入力される。Rpkは、トランスポートパケットの入力レートの瞬時的な最大値である。
27MHz PLL52は、27MHzクロックの周波数を発生する。27MHzクロックの周波数は、MPEG-2トランスポートストリームのPCR (Program Clock Reference)の値にロックされる。arrival time clock counter53は、27MHzの周波数のパルスをカウントするバイナリーカウンターである。Arrival_time_clock(i)は、時刻t(i)におけるArrival time clock counterのカウント値である。
source packetizer54は、すべてのトランスポートパケットにTP_extra_headerを付加し、ソースパケットを作る。Arrival_time_stampは、トランスポートパケットの第1バイト目がT-STDとソースパケッタイザーの両方へ到着する時刻を表す。Arrival_time_stamp(k)は、次式で示されるようにArrival_time_clock(k)のサンプル値であり、ここで、kはトランスポートパケットの第1バイト目を示す。
arrival_time_stamp(k) = arrival_time_clock(k)% 230
2つの連続して入力されるトランスポートパケットの時間間隔が、230/27000000秒(約40秒)以上になる場合、その2つのトランスポートパケットのarrival_time_stampの差分は、230/27000000秒になるようにセットされるべきである。レコーダは、そのようになる場合に備えてある。
smoothing buffer55は、入力トランスポートストリームのビットレートをスムージングする。スムージングバッファは、オーバーフロウしてはならない。Rmaxは、スムージングバッファが空でない時のスムージングバッファからのソースパケットの出力ビットレートである。スムージングバッファが空である時、スムージングバッファからの出力ビットレートはゼロである。
次に、DVR MPEG-2トランスポートストリームのレコーダモデルのパラメータについて説明する。Rmaxという値は、AVストリームファイルに対応するClipInfo()において定義されるTS_recording_rateによって与えられる。この値は、次式により算出される。
Rmax = TS_recording_rate 192/188
TS_recording_rateの値は、bytes/secondを単位とする大きさである。
入力トランスポートストリームがSESFトランスポートストリームの場合、Rpkは、AVストリームファイルに対応するClipInfo()において定義されるTS_recording_rateに等しくなければならない。入力トランスポートストリームがSESFトランスポートストリームでない場合、この値はMPEG-2 transport streamのデスクリプター,例えばmaximum_bitrate_descriptorやpartial_transport_stream_descriptorなど、において定義される値を参照しても良い。
smoothing buffer sizeは、入力トランスポートストリームがSESFトランスポートストリームの場合、スムージングバッファの大きさはゼロである。入力トランスポートストリームがSESFトランスポートストリームでない場合、スムージングバッファの大きさはMPEG-2 transport streamのデスクリプター、例えばsmoothing_buffer_descriptor、short_smoothing_buffer_descriptor、partial_transport_stream_descriptorなどにおいて定義される値を参照しても良い。
記録機(レコーダ)および再生機(プレーヤ)は、十分なサイズのバッファを用意しなければならない。デフォールトのバッファサイズは、1536 bytes である。
次に、DVR MPEG-2トランスポートストリームのプレーヤモデルについて説明する。図84は、DVR MPEG-2トランスポートストリームのプレーヤモデルを示す図である。これは、再生プロセスを規定するための概念上のモデルである。DVR MPEG-2トランスポートストリームは、このモデルに従う。
27MHz X-tal61は、27Mhzの周波数を発生する。27MHz周波数の誤差範囲は、+/-30 ppm (27000000 +/- 810 Hz)でなければならない。arrival time clock counter62は、27MHzの周波数のパルスをカウントするバイナリーカウンターである。Arrival_time_clock(i)は、時刻t(i)におけるArrival time clock counterのカウント値である。
smoothing buffer64において、Rmaxは、スムージングバッファがフルでない時のスムージングバッファへのソースパケットの入力ビットレートである。スムージングバッファがフルである時、スムージングバッファへの入力ビットレートはゼロである。
MPEG-2トランスポートストリームの出力タイミングを説明するに、現在のソースパケットのarrival_time_stampがarrival_time_clock(i)のLSB 30ビットの値と等しい時、そのソースパケットのトランスポートパケットは、スムージングバッファから引き抜かれる。Rpkは、トランスポートパケットレートの瞬時的な最大値である。スムージングバッファは、アンダーフロウしてはならない。
DVR MPEG-2トランスポートストリームのプレーヤモデルのパラメータについては、上述したDVR MPEG-2トランスポートストリームのレコーダモデルのパラメータと同一である。
図85は、Source packetのシンタクスを示す図である。transport_packet() は、ISO/IEC 13818-1で規定されるMPEG-2トランスポートパケットである。図85に示したSource packetのシンタクス内のTP_Extra_headerのシンタクスを図86に示す。図86に示したTP_Extra_headerのシンタクスについて説明するに、copy_permission_indicatorは、トランスポートパケットのペイロードのコピー制限を表す整数である。コピー制限は、copy free、no more copy、copy once、またはcopy prohibitedとすることができる。図87は、copy_permission_indicatorの値と、それらによって指定されるモードの関係を示す。
copy_permission_indicatorは、すべてのトランスポートパケットに付加される。IEEE1394デジタルインターフェースを使用して入力トランスポートストリームを記録する場合、copy_permission_indicatorの値は、IEEE1394 isochronous packet headerの中のEMI (Encryption Mode Indicator)の値に関連付けても良い。IEEE1394デジタルインターフェースを使用しないで入力トランスポートストリームを記録する場合、copy_permission_indicatorの値は、トランスポートパケットの中に埋め込まれたCCIの値に関連付けても良い。アナログ信号入力をセルフエンコードする場合、copy_permission_indicatorの値は、アナログ信号のCGMS-Aの値に関連付けても良い。
arrival_time_stampは、次式
arrival_time_stamp(k) = arrival_time_clock(k)% 230
において、arrival_time_stampによって指定される値を持つ整数値である。
Clip AVストリームの定義をするに、Clip AVストリームは、上述したような定義がされるDVR MPEG-2トランスポートストリームの構造を持たねばならない。arrival_time_clock(i)は、Clip AVストリームの中で連続して増加しなければならない。Clip AVストリームの中にシステムタイムベース(STCベース)の不連続点が存在したとしても、そのClip AVストリームのarrival_time_clock(i)は、連続して増加しなければならない。
Clip AVストリームの中の開始と終了の間のarrival_time_clock(i)の差分の最大値は、26時間でなければならない。この制限は、MPEG2トランスポートストリームの中にシステムタイムベース(STCベース)の不連続点が存在しない場合に、Clip AVストリームの中で同じ値のPTS(Presentation Time Stamp)が決して現れないことを保証する。MPEG2システムズ規格は、PTSのラップアラウンド周期を233/90000秒(約26.5時間).と規定している。
Bridge-Clip AVストリームの定義をするに、Bridge-Clip AVストリームは、上述したような定義がされるDVR MPEG-2トランスポートストリームの構造を持たねばならない。Bridge-Clip AVストリームは、1つのアライバルタイムベースの不連続点を含まなければならない。アライバルタイムベースの不連続点の前後のトランスポートストリームは、後述する符号化の制限に従わなければならず、かつ後述するDVR-STDに従わなければならない。
本実施の形態においては、編集におけるPlayItem間のビデオとオーディオのシームレス接続をサポートする。PlayItem間をシームレス接続にすることは、プレーヤ/レコーダに"データの連続供給"と"シームレスな復号処理"を保証する。"データの連続供給"とは、ファイルシステムが、デコーダにバッファのアンダーフロウを起こさせる事のないように必要なビットレートでデータを供給する事を保証できることである。データのリアルタイム性を保証して、データをディスクから読み出すことができるように、データが十分な大きさの連続したブロック単位でストアされるようにする。
"シームレスな復号処理"とは、プレーヤが、デコーダの再生出力にポーズやギャップを起こさせる事なく、ディスクに記録されたオーディオビデオデータを表示できることである。
シームレス接続されているPlayItemが参照するAVストリームについて説明する。先行するPlayItemと現在のPlayItemの接続が、シームレス表示できるように保証されているかどうかは、現在のPlayItemにおいて定義されているconnection_conditionフィールドから判断することができる。PlayItem間のシームレス接続は、Bridge-Clipを使用する方法と使用しない方法がある。
図88は、Bridge-Clipを使用する場合の先行するPlayItemと現在のPlayItemの関係を示している。図88においては、プレーヤが読み出すストリームデータが、影をつけて示されている。図88に示したTS1は、Clip1(Clip AVストリーム)の影を付けられたストリームデータとBridge-ClipのRSPN_arrival_time_discontinuityより前の影を付けられたストリームデータから成る。
TS1のClip1の影を付けられたストリームデータは、先行するPlayItemのIN_time(図88においてIN_time1で図示されている)に対応するプレゼンテーションユニットを復号する為に必要なストリームのアドレスから、RSPN_exit_from_previous_Clipで参照されるソースパケットまでのストリームデータである。TS1に含まれるBridge-ClipのRSPN_arrival_time_discontinuityより前の影を付けられたストリームデータは、Bridge-Clipの最初のソースパケットから、RSPN_arrival_time_discontinuityで参照されるソースパケットの直前のソースパケットまでのストリームデータである。
また、図88におけるTS2は、Clip2(Clip AVストリーム)の影を付けられたストリームデータとBridge-ClipのRSPN_arrival_time_discontinuity以後の影を付けられたストリームデータから成る。TS2に含まれるBridge-ClipのRSPN_arrival_time_discontinuity以後の影を付けられたストリームデータは、RSPN_arrival_time_discontinuityで参照されるソースパケットから、Bridge-Clipの最後のソースパケットまでのストリームデータである。TS2のClip2の影を付けられたストリームデータは、RSPN_enter_to_current_Clipで参照されるソースパケットから、現在のPlayItemのOUT_time(図88においてOUT_time2で図示されている)に対応するプレゼンテーションユニットを復号する為に必要なストリームのアドレスまでのストリームデータである。
図89は、Bridge-Clipを使用しない場合の先行するPlayItemと現在のPlayItemの関係を示している。この場合、プレーヤが読み出すストリームデータは、影をつけて示されている。図89におけるTS1は、Clip1 (Clip AVストリーム)の影を付けられたストリームデータから成る。TS1のClip1の影を付けられたストリームデータは、先行するPlayItemのIN_time(図89においてIN_time1で図示されている)に対応するプレゼンテーションユニットを復号する為に必要なストリームのアドレスから始まり、Clip1の最後のソースパケットまでのデータである。また、図89におけるTS2は、Clip2 (Clip AVストリーム)の影を付けられたストリームデータから成る。
TS2のClip2の影を付けられたストリームデータは、Clip2の最初のソースパケットから始まり、現在のPlayItemのOUT_time(図89においてOUT_time2で図示されている)に対応するプレゼンテーションユニットを復号する為に必要なストリームのアドレスまでのストリームデータである。
図88と図89において、TS1とT2は、ソースパケットの連続したストリームである。次に、TS1とTS2のストリーム規定と、それらの間の接続条件について考える。まず、シームレス接続のための符号化制限について考える。トランスポートストリームの符号化構造の制限として、まず、TS1とTS2の中に含まれるプログラムの数は、1でなければならない。TS1とTS2の中に含まれるビデオストリームの数は、1でなければならない。TS1とTS2の中に含まれるオーディオストリームの数は、2以下でなければならない。TS1とTS2の中に含まれるオーディオストリームの数は、等しくなければならない。TS1および/またはTS2の中に、上記以外のエレメンタリーストリームまたはプライベートストリームが含まれていても良い。
ビデオビットストリームの制限について説明する。図90は、ピクチャの表示順序で示すシームレス接続の例を示す図である。接続点においてビデオストリームをシームレスに表示できるためには、OUT_time1(Clip1のOUT_time)の後とIN_time2(Clip2のIN_time)の前に表示される不必要なピクチャは、接続点付近のClipの部分的なストリームを再エンコードするプロセスにより、除去されなければならない。
図90に示したような場合において、BridgeSequenceを使用してシームレス接続を実現する例を、図91に示す。RSPN_arrival_time_discontinuityより前のBridge-Clipのビデオストリームは、図90のClip1のOUT_time1に対応するピクチャまでの符号化ビデオストリームから成る。そして、そのビデオストリームは先行するClip1のビデオストリームに接続され、1つの連続でMPEG2規格に従ったエレメンタリーストリームとなるように再エンコードされている。
同様にして、RSPN_arrival_time_discontinuity以後のBridge-Clipのビデオストリームは、図90のClip2のIN_time2に対応するピクチャ以後の符号化ビデオストリームから成る。そして、そのビデオストリームは、正しくデコード開始する事ができて、これに続くClip2のビデオストリームに接続され、1つの連続でMPEG2規格に従ったエレメンタリーストリームとなるように再エンコードされている。Bridge-Clipを作るためには、一般に、数枚のピクチャは再エンコードしなければならず、それ以外のピクチャはオリジナルのClipからコピーすることができる。
図90に示した例の場合にBridgeSequenceを使用しないでシームレス接続を実現する例を図92に示す。Clip1のビデオストリームは、図90のOUT_time1に対応するピクチャまでの符号化ビデオストリームから成り、それは、1つの連続でMPEG2規格に従ったエレメンタリーストリームとなるように再エンコードされている。同様にして、Clip2のビデオストリームは、図90のClip2のIN_time2に対応するピクチャ以後の符号化ビデオストリームから成り、それは、1つの連続でMPEG2規格に従ったエレメンタリーストリームとなるように再エンコードされている。
ビデオストリームの符号化制限について説明するに、まず、TS1とTS2のビデオストリームのフレームレートは、等しくなければならない。TS1のビデオストリームは、sequence_end_codeで終端しなければならない。TS2のビデオストリームは、Sequence Header、GOP Header、そしてI-ピクチャで開始しなければならない。TS2のビデオストリームは、クローズドGOPで開始しなければならない。
ビットストリームの中で定義されるビデオプレゼンテーションユニット(フレームまたはフィールド)は、接続点を挟んで連続でなければならない。接続点において、フレームまたはフィールドのギャップがあってはならない。接続点において、トップ?ボトムのフィールドシーケンスは連続でなければならない。3-2プルダウンを使用するエンコードの場合は、"top_field_first" および "repeat_first_field"フラグを書き換える必要があるかもしれない,またはフィールドギャップの発生を防ぐために局所的に再エンコードするようにしても良い。
オーディオビットストリームの符号化制限について説明するに、TS1とTS2のオーディオのサンプリング周波数は、同じでなければならない。TS1とTS2のオーディオの符号化方法(例.MPEG1レイヤ2, AC-3, SESF LPCM, AAC)は、同じでなければならない。
次に、MPEG-2トランスポートストリームの符号化制限について説明するに、TS1のオーディオストリームの最後のオーディオフレームは、TS1の最後の表示ピクチャの表示終了時に等しい表示時刻を持つオーディオサンプルを含んでいなければならない。TS2のオーディオストリームの最初のオーディオフレームは、TS2の最初の表示ピクチャの表示開始時に等しい表示時刻を持つオーディオサンプルを含んでいなければならない。
接続点において、オーディオプレゼンテーションユニットのシーケンスにギャップがあってはならない。図93に示すように、2オーディオフレーム区間未満のオーディオプレゼンテーションユニットの長さで定義されるオーバーラップがあっても良い。TS2のエレメンタリーストリームを伝送する最初のパケットは、ビデオパケットでなければならない。接続点におけるトランスポートストリームは、後述するDVR-STDに従わなくてはならない。
ClipおよびBridge-Clipの制限について説明するに、TS1とTS2は、それぞれの中にアライバルタイムベースの不連続点を含んではならない。
以下の制限は、Bridge-Clipを使用する場合にのみ適用される。TS1の最後のソースパケットとTS2の最初のソースパケットの接続点においてのみ、Bridge-Clip AVストリームは、ただ1つのアライバルタイムベースの不連続点を持つ。ClipInfo()において定義されるRSPN_arrival_time_discontinuityが、その不連続点のアドレスを示し、それはTS2の最初のソースパケットを参照するアドレスを示さなければならない。
BridgeSequenceInfo()において定義されるRSPN_exit_from_previous_Clipによって参照されるソースパケットは、Clip1の中のどのソースパケットでも良い。それは、Aligned unitの境界である必要はない。BridgeSequenceInfo()において定義されるRSPN_enter_to_current_Clipによって参照されるソースパケットは、Clip2の中のどのソースパケットでも良い。それは、Aligned unitの境界である必要はない。
PlayItemの制限について説明するに、先行するPlayItemのOUT_time(図88、図89において示されるOUT_time1)は、TS1の最後のビデオプレゼンテーションユニットの表示終了時刻を示さなければならない。現在のPlayItemのIN_time(F図88、図89において示されるIN_time2)は、TS2の最初のビデオプレゼンテーションユニットの表示開始時刻を示さなければならない。
Bridge-Clipを使用する場合のデータアロケーションの制限について、図94を参照して説明するに、シームレス接続は、ファイルシステムによってデータの連続供給が保証されるように作られなければならない。これは、Clip1(Clip AVストリームファイル)とClip2(Clip AVストリームファイル)に接続されるBridge-Clip AVストリームを、データアロケーション規定を満たすように配置することによって行われなければならない。
RSPN_exit_from_previous_Clip以前のClip1(Clip AVストリームファイル)のストリーム部分が、ハーフフラグメント以上の連続領域に配置されているように、RSPN_exit_from_previous_Clipが選択されなければならない。Bridge-Clip AVストリームのデータ長は、ハーフフラグメント以上の連続領域に配置されるように、選択されなければならない。RSPN_enter_to_current_Clip以後のClip2(Clip AVストリームファイル)のストリーム部分が、ハーフフラグメント以上の連続領域に配置されているように、RSPN_enter_to_current_Clipが選択されなければならない。
Bridge-Clipを使用しないでシームレス接続する場合のデータアロケーションの制限について、図95を参照して説明するに、シームレス接続は、ファイルシステムによってデータの連続供給が保証されるように作られなければならない。これは、Clip1(Clip AVストリームファイル)の最後の部分とClip2(Clip AVストリームファイル)の最初の部分を、データアロケーション規定を満たすように配置することによって行われなければならない。
Clip1(Clip AVストリームファイル)の最後のストリーム部分が、ハーフフラグメント以上の連続領域に配置されていなければならない。Clip2(Clip AVストリームファイル)の最初のストリーム部分が、ハーフフラグメント以上の連続領域に配置されていなければならない。
次に、DVR-STDについて説明する。DVR-STDは、DVR MPEG2トランスポートストリームの生成および検証の際におけるデコード処理をモデル化するための概念モデルである。また、DVR-STDは、上述したシームレス接続された2つのPlayItemによって参照されるAVストリームの生成および検証の際におけるデコード処理をモデル化するための概念モデルでもある。
DVR-STDモデルを図96に示す。図96に示したモデルには、DVR MPEG-2トランスポートストリームプレーヤモデルが構成要素として含まれている。n, TBn, MBn, EBn, TBsys, Bsys, Rxn, Rbxn, Rxsys, Dn, Dsys, OnおよびPn(k)の表記方法は、ISO/IEC13818-1のT-STDに定義されているものと同じである。すなわち、次の通りである。nは、エレメンタリーストリームのインデクス番号である。TBnは、エレメンタリーストリームnのトランスポートバッファでる。
MBnは、エレメンタリーストリームnの多重バッファである。ビデオストリームについてのみ存在する。EBnは、エレメンタリーストリームnのエレメンタリーストリームバッファである。ビデオストリームについてのみ存在する。TBsysは、復号中のプログラムのシステム情報のための入力バッファである。Bsysは、復号中のプログラムのシステム情報のためのシステムターゲットデコーダ内のメインバッファである。Rxnは、データがTBnから取り除かれる伝送レートである。Rbxnは、PESパケットペイロードがMBnから取り除かれる伝送レートである。ビデオストリームについてのみ存在する。
Rxsysは、データがTBsysから取り除かれる伝送レートである。Dnは、エレメンタリーストリームnのデコーダである。Dsysは、復号中のプログラムのシステム情報に関するデコーダである。Onは、ビデオストリームnのre-ordering bufferである。Pn(k)は、エレメンタリーストリームnのk番目のプレゼンテーションユニットである。
DVR-STDのデコーディングプロセスについて説明する。単一のDVR MPEG-2トランスポートストリームを再生している間は、トランスポートパケットをTB1, TBnまたはTBsysのバッファへ入力するタイミングは、ソースパケットのarrival_time_stampにより決定される。TB1, MB1, EB1, TBn, Bn, TBsysおよびBsysのバッファリング動作の規定は、ISO/IEC 13818-1に規定されているT-STDと同じである。復号動作と表示動作の規定もまた、ISO/IEC 13818-1に規定されているT-STDと同じである。
シームレス接続されたPlayItemを再生している間のデコーディングプロセスについて説明する。ここでは、シームレス接続されたPlayItemによって参照される2つのAVストリームの再生について説明をすることにし、以後の説明では、上述した(例えば、図88に示した)TS1とTS2の再生について説明する。TS1は、先行するストリームであり、TS2は、現在のストリームである。
図97は、あるAVストリーム(TS1)からそれにシームレスに接続された次のAVストリーム(TS2)へと移る時のトランスポートパケットの入力,復号,表示のタイミングチャートを示す。所定のAVストリーム(TS1)からそれにシームレスに接続された次のAVストリーム(TS2)へと移る間には、TS2のアライバルタイムベースの時間軸(図97においてATC2で示される)は、TS1のアライバルタイムベースの時間軸(図97においてATC1で示される)と同じでない。
また、TS2のシステムタイムベースの時間軸(図97においてSTC2で示される)は、TS1のシステムタイムベースの時間軸(図97においてSTC1で示される)と同じでない。ビデオの表示は、シームレスに連続していることが要求される。オーディオのプレゼンテーションユニットの表示時間にはオーバーラップがあっても良い。
DVR-STD への入力タイミングについて説明する。時刻T1までの時間、すなわち、TS1の最後のビデオパケットがDVR-STDのTB1に入力終了するまでは、DVR-STDのTB1、TBn またはTBsysのバッファへの入力タイミングは、TS1のソースパケットのarrival_time_stampによって決定される。
TS1の残りのパケットは、TS_recording_rate(TS1)のビットレートでDVR-STDのTBnまたはTBsysのバッファへ入力されなければならない。ここで、TS_recording_rate(TS1)は、Clip1に対応するClipInfo()において定義されるTS_recording_rateの値である。TS1の最後のバイトがバッファへ入力する時刻は、時刻T2である。従って、時刻T1からT2までの区間では、ソースパケットのarrival_time_sta
mpは無視される。
N1をTS1の最後のビデオパケットに続くTS1のトランスポートパケットのバイト数とすると、時刻T1乃至T2までの時間DT1は、N1バイトがTS_recording_rate(TS1)のビットレートで入力終了するために必要な時間であり、次式により算出される。
DT1=T2−T1=N1 / TS_recording_rate
(TS1)時刻T1乃至T2までの間は、RXnとRXsysの値は共に、TS_recording_rate(TS1)の値に変化する。このルール以外のバッファリング動作は、T-STDと同じである。
2の時刻において、arrival time clock counterは、TS2の最初のソースパケットのarrival_time_stampの値にリセットされる。DVR-STDのTB1, TBn またはTBsysのバッファへの入力タイミングは、TS2のソースパケットのarrival_time_stampによって決定される。RXnとRXsysは共に、T-STDにおいて定義されている値に変化する。
付加的なオーディオバッファリングおよびシステムデータバッファリングについて説明するに、オーディオデコーダとシステムデコーダは、時刻T1からT2までの区間の入力データを処理することができるように、T-STDで定義されるバッファ量に加えて付加的なバッファ量(約1秒分のデータ量)が必要である。
ビデオのプレゼンテーションタイミングについて説明するに、ビデオプレゼンテーションユニットの表示は、接続点を通して、ギャップなしに連続でなければならない。ここで、STC1は、TS1のシステムタイムベースの時間軸(図97ではSTC1と図示されている)とし、STC2は、TS2のシステムタイムベースの時間軸(図97ではSTC2と図示されている。正確には、STC2は、TS2の最初のPCRがT-STDに入力した時刻から開始する。)とする。
STC1とSTC2の間のオフセットは、次のように決定される。PTS1 endは、TS1の最後のビデオプレゼンテーションユニットに対応するSTC1上のPTSであり、PTS2 startは、TS2の最初のビデオプレゼンテーションユニットに対応するSTC2上のPTSであり、Tppは、TS1の最後のビデオプレゼンテーションユニットの表示期間とすると、2つのシステムタイムベースの間のオフセットSTC_deltaは、次式により算出される。
STC_delta = PTS1 end + Tpp - PTS2 start
オーディオのプレゼンテーションのタイミングについて説明するに、接続点において、オーディオプレゼンテーションユニットの表示タイミングのオーバーラップがあっても良く、それは0乃至2オーディオフレーム未満である(図97に図示されている"audio overlap"を参照)。どちらのオーディオサンプルを選択するかということと、オーディオプレゼンテーションユニットの表示を接続点の後の補正されたタイムベースに再同期することは、プレーヤ側により設定されることである。
DVR-STDのシステムタイムクロックについて説明するに、時刻T5において、TS1の最後のオーディオプレゼンテーションユニットが表示される。システムタイムクロックは、時刻T2からT5の間にオーバーラップしていても良い。この区間では、DVR-STDは、システムタイムクロックを古いタイムベースの値(STC1)と新しいタイムベースの値(STC2)の間で切り替える。STC2の値は、次式により算出される。
STC2=STC1−STC_delta
バッファリングの連続性について説明する。STC11 video_endは、TS1の最後のビデオパケットの最後のバイトがDVR-STDのTB1へ到着する時のシステムタイムベースSTC1上のSTCの値である。STC22 video_startは、TS2の最初のビデオパケットの最初のバイトがDVR-STDのTB1へ到着する時のシステムタイムベースSTC2上のSTCの値である。STC21 video_endは、STC11 video_end の値をシステムタイムベースSTC2上の値に換算した値である。STC21 video_endは、次式により算出される。
STC21 video_end = STC11 video_end - STC_delta
DVR-STDに従うために、次の2つの条件を満たす事が要求される。まず、TS2の最初のビデオパケットのTB1への到着タイミングは、次に示す不等式を満たさなければならない。そして、次に示す不等式を満たさなければならない。
STC22 video_start > STC21 video_end + ΔT1
この不等式が満たされるように、Clip1および、または、Clip2の部分的なストリームを再エンコードおよび、または、再多重化する必要がある場合は、その必要に応じて行われる。
次に、STC1とSTC2を同じ時間軸上に換算したシステムタイムベースの時間軸上において、TS1からのビデオパケットの入力とそれに続くTS2からのビデオパケットの入力は、ビデオバッファをオーバーフロウおよびアンダーフローさせてはならない。
このようなシンタクス、データ構造、規則に基づく事により、記録媒体に記録されているデータの内容、再生情報などを適切に管理することができ、もって、ユーザが再生時に適切に記録媒体に記録されているデータの内容を確認したり、所望のデータを簡便に再生できるようにすることができる。
なお、本実施の形態は、多重化ストリームとしてMPEG2トランスポートストリームを例にして説明しているが、これに限らず、MPEG2プログラムストリームや米国のDirecTVサービス(商標)で使用されているDSSトランスポートストリームについても適用することが可能である。
次に、図98は、PlayListファイルの別の例を示す。図98と図23のシンタクスの大きな違いは、UIAppInfoPlayList()をストアしている場所である。図98の例では、UIAppInfoPlayList()がPlayList()の中から外に出されているので、UIAppInfoPlayList()の将来の情報拡張が比較的容易に行えるようになる。
version_numberは、このサムネールヘッダ情報ファイルのバージョンナンバーを示す4個の数字である。
PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
MakersPrivateData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、MakersPrivateData()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
図99は、図98のPlayListファイルの中のUIAppInfoPlayListのシンタクスを示す。PlayList_service_typeは、PlayListファイルのタイプを示す。その一例は、図26に示されている。また、PlayList_service_typeは、ディジタルTV放送のプログラムが示すサービスタイプと同じ意味を持たせても良い。例えば、日本のディジタルBS放送の場合、サービスタイプは、テレビサービス、音声サービス、およびデータ放送サービスの3種類を持つ。PlayListが使用するClip AVストリームが含むプログラムのサービスタイプを代表する値をPlayList_service_typeにセットする。
PlayList_character_setは、channel_name, PlayList_nameおよびPlayList_detailフィールドに符号化されているキャラクター文字の符号化方法を示す。また、これはPlayListMarkの中のmark_nameフィールドに符号化されているキャラクター文字の符号化方法を示す。
channel_numberは、そのPlayListが記録される時、ユーザによって選択された放送チャンネル番号またはサービス番号を示す。複数のPlayListが1つのPlayListにコンバインされた場合は、このフィールドはそのPlayListの代表値を示す。このフィールドが0xFFFFにセットされている場合、このフィールドは何も意味を持たない。
channel_name_lengthは、channel_nameフィールドの中に示されるチャンネル名のバイト長を示す。このフィールドは、20以下の値である。
channel_nameは、そのPlayListが記録される時、ユーザによって選択された放送チャンネルまたはサービスの名前を示す。このフィールドの中の左からchannel_name_lengthによって示される数のバイト数が有効なキャラクター文字であり、前記名前を示す。このフィールドの中で、それら有効なキャラクター文字に続く残りのバイトは、どんな値がセットされていても良い。複数のPlayListが1つのPlayListにコンバインされた場合は、このフィールドはそのPlayListを代表する名前を示す。
PlayList_name_lengthは、PlayList_nameフィールドの中に示されるPlayList名のバイト長を示す。
PlayList_nameは、PlayListの名前を示す。このフィールドの中の左からPlayList_name_lengthによって示される数のバイト数が有効なキャラクター文字であり、前記名前を示す。このフィールドの中で、それら有効なキャラクター文字に続く残りのバイトは、どんな値がセットされていても良い。
PlayList_detail_lengthは、PlayList_datailフィールドの中に示されるPlayListの詳細情報のバイト長を示す。このフィールドは、1200以下の値である。
PlayList_detailは、PlayListの詳細情報を説明するテキストを示す。このフィールドの中の左からPlayList_detail_lengthによって示される数のバイト数が有効なキャラクター文字であり、前記テキストを示す。このフィールドの中で、それら有効なキャラクター文字に続く残りのバイトは、どんな値がセットされていても良い。
これ以外のシンタクスフィールドの意味は、図27に示す同名のフィールドと同じである。
図100は、図98のPlayListファイルの中のPlayList()のシンタクスを示す。図25の例と比べると、UIAppInfoPlayList()がなくなった点が違うだけで、これ以外は基本的に同じである。
図101は、SubPlayItemのシンタクスの別例を示す。図40の例と比べると、STC_sequence_idが追加された点が大きな違いである。
STC_sequence_idは、Clip_Information_file_nameに対応するAVストリームファイル上の再生区間を特定するためのSubPath_IN_timeとSubPath_OUT_timeが参照するところのSTCのSTC_sequence_idを示す。SubPath_IN_timeとSubPath_OUT_timeは、STC_sequence_idによって指定される同じSTC連続区間上の時間を示す。
SubPlayItemにSTC_sequence_idを追加することにより、SubPlayItemが参照するAVストリームファイルがSTC不連続点を持つことが許されるようになる。
これ以外のシンタクスフィールドの意味は、図40に示す同名のフィールドと同じである。
図102は、Real PlayListの作成方法を説明するフローチャートを示す。図1の記録再生装置のブロック図を参照しながら説明する。
ステップS11で、制御部23はClip AVストリームを記録する。
ステップS12で、制御部23はClip AVストリームのEP_mapを作成可能かどうかを調べる。ステップS12で、Yesの場合はステップS13へ進み、EP_mapを作成する。ステップS12で、Noの場合はステップS14へ進み、TU_mapを作成する。
その後、ステップS15で、制御部23はPlayListのCPI_typeをセットする。
ステップS16で、制御部23は上記Clipの全ての再生可能範囲をカバーするPlayItemからなるPlayList()を作成する。CPI_typeがEP_mapタイプの場合は、時間情報をPTSベースでセットする、この時、Clipの中にSTC不連続点があり、PlayList()が2つ以上のPlayItemからなる場合は、PlayItem間のconnection_conditionもまた決定する。CPI_typeがTU_mapタイプの場合は、時間情報をアライバルタイムベースでセットする。
ステップS17で、制御部23はUIAppInfoPlayList()を作成する。
ステップS18で、制御部23はPlayListMarkを作成する。
ステップS19で、制御部23はMakersPrivateDataを作成する。
ステップS20で、制御部23はReal PlayListファイルを記録する。
このようにして、新規にClip AVストリームを記録する毎に、1つのReal PlayListファイルが作られる。
図103は、Virtual PlayListの作成方法を説明するフローチャートである。
ステップS31で、ユーザインターフェースを通して、ディスクに記録されている1つのReal PlayListが指定される。そして、そのReal PlayListの再生範囲の中から、ユーザインターフェースを通して、IN点とOUT点で示される再生区間が指定される。CPI_typeがEP_mapタイプの場合は、再生区間をPTSベースでセットし、CPI_typeがTU_mapタイプの場合は、再生区間をアライバルタイムベースでセットする。
ステップS32で、制御部23はユーザによる再生範囲の指定操作がすべて終了したか調べる。ユーザが上記指示した再生区間に続けて再生する区間を選ぶ場合はステップS31へ戻る。ステップS32でユーザによる再生範囲の指定操作がすべて終了した場合は、ステップS33へ進む。
ステップS33で、連続して再生される2つの再生区間の間の接続状態(connection_condition)を、ユーザがユーザインタフェースを通して決定するか、または制御部23が決定する。
ステップS34で、CPI_typeがEP_mapタイプの場合、ユーザインタフェースを通して、ユーザがサブパス(アフレコ用オーディオ)情報を指定する。ユーザがサブパスを作成しない場合はこのステップはない。
ステップS35で、制御部23はユーザが指定した再生範囲情報、およびconnection_conditionに基づいて、PlayList()を作成する。
ステップS36で、制御部23はUIAppInfoPlayList()を作成する。
ステップS37で、制御部23はPlayListMarkを作成する。
ステップS38で、制御部23はMakersPrivateDataを作成する。
ステップS39で、制御部23はVirtual PlayListファイルを記録する。
このようにして、ディスクに記録されているReal PlayListの再生範囲の中から、ユーザが見たい再生区間を選択してその再生区間をグループ化したもの毎に、1つのVirtual PlayListファイルが作られる。
図104はPlayListの再生方法を説明するフローチャートである。
ステップS51で、制御部23はInfo.dvr, Clip Information file, PlayList fileおよびサムネールファイルの情報を取得し、ディスクに記録されているPlayListの一覧を示すGUI画面を作成し、ユーザインタフェースを通して、GUIに表示する。
ステップS52で、制御部23はそれぞれのPlayListのUIAppInfoPlayList()に基づいて、PlayListを説明する情報をGUI画面に提示する。
ステップS53で、ユーザインタフェースを通して、GUI画面上からユーザが1つのPlayListの再生を指示する。
ステップS54で、制御部23は、CPI_typeがEP_mapタイプの場合、現在のPlayItemのSTC-sequenc-idとIN_timeのPTSから、IN_timeより時間的に前で最も近いエントリーポイントのあるソースパケット番号を取得する。または制御部23は、CPI_typeがTU_mapタイプの場合、現在のPlayItemのIN_timeから、IN_timeより時間的に前で最も近いタイムユニットの開始するソースパケット番号を取得する。
ステップS55で、制御部23は上記ステップで得られたソースパケット番号からAVストリームのデータを読み出し、AVデコーダ27へ供給する。
ステップS56で、現在のPlayItemの時間的に前のPlayItemがあった場合は、制御部23は、前のPlayItemと現在のPlayItemとの表示の接続処理をconnection_conditionに従って行う。
ステップS57で、制御部23は、CPI_typeがEP_mapタイプの場合、AVデコーダ27は、IN_timeのPTSのピクチャから表示を開始するように指示する。または、制御部23は、CPI_typeがTU_mapタイプの場合、AVデコーダ27は、IN_time以後のストリームのピクチャから表示を開始するように指示する。
ステップS58で、制御部23は、AVデコーダ27にAVストリームのデコードを続けるように指示する。
ステップS59で、制御部23は、CPI_typeがEP_mapタイプの場合、現在表示の画像が、OUT_timeのPTSの画像かを調べる。または、制御部23は、CPI_typeがTU_mapタイプの場合、現在デコードしているストリームがOUT_timeを過ぎたかを調べる。
ステップS59で、Noの場合は、ステップS60へ進む。ステップS60で現在の画像を表示して、ステップS58へ戻る。Yesの場合は、ステップS61へ進む。
ステップS61で、制御部23は、現在のPlayItemがPlayListの中で最後のPlayItemかを調べる。Noの場合はステップS54へ戻る。Yesの場合は、PlayListの再生を終了する。
図105は、PlayListのSubパスの再生方法を説明するフローチャートである。図105のPlayListのサブパスの再生方法は、PlayListのCPI_typeがEP_mapの場合のみに用いられる。このフローチャートの処理は、図104のPlayListの再生におけるステップS54以後の処理と共に、同時に行われる。また、AVデコーダ27は同時に2本のオーディオストリームのデコードが可能であることを前提とする。
ステップS71で、制御部23は、SubPlayItemの情報を取得する。
ステップS72で、制御部23は、SubPath_IN_timeよりも時間的に前で最も近いエントリーポイントのあるソースパケット番号を取得する。
ステップS73で、制御部23は、上記エントリーポイントのあるソースパケット番号からサブパスのAVストリームのデータを読み出し、AVデコーダ27へ供給する。
ステップS74で、制御部23は、Mainパスの再生が、sync_PlayItem_idとsync_start_PTS_of_PlayItemで示されるピクチャになったら、サブパスのオーディオを表示を開始するようにAVデコーダ27に指示する。
ステップS75でAVデコーダ27は、サブパスのAVストリームのデコードを続ける。
ステップS76で制御部23は、現在表示するサブパスのPTSが、SubPath_OUT_timeかを調べる。Noの場合は、ステップS77へ進む。ステップS77でサブパスの表示を続けて、ステップS75へ戻る。
ステップS76で現在表示するサブパスのPTSが、SubPath_OUT_timeの場合はサブパスの表示を終了する。
図104および図105のようにして、ユーザにより再生指示された1つのPlayListファイルのメインパスおよびサブパスの再生が行なわれる。
図106は、PlayListMarkの作成方法を説明するフローチャートを示す。図1の記録再生装置のブロック図を参照しながら説明する。
ステップS91で、制御部23はInfo.dvr, Clip Information file, PlayList fileおよびThumbnail fileの情報を取得し、ディスクに記録されているPlayListの一覧を示すGUI画面を作成し、ユーザインタフェースを通して、GUIに表示する。
ステップS92で、ユーザインタフェースを通して、ユーザが1つのPlayListの再生を制御部23に指示する。
ステップS93で、制御部23は、上記指示されたPlayListの再生を開始させる(図104参照)。
ステップS94で、ユーザインタフェースを通して、ユーザがお気に入りのシーンのところにマークのセットを制御部23に指示する。
ステップS95で、制御部23は、CPI_typeがEP_mapの場合、マークのPTSとそれが属するPlayItemのPlayItem_idを取得する。または制御部23は、CPI_typeがTU_mapの場合、マーク点のアライバルタイムを取得する
ステップS96で、制御部23はマークの情報をPlayListMark()にストアする。
ステップS97で、制御部23は、PlayListファイルを記録媒体100に記録する。
図107は、PlayListMarkを使用した頭出し再生方法を説明するフローチャートである。図1の記録再生装置のブロック図を参照しながら説明する。
ステップS111で、制御部23はInfo.dvr, Clip Information file, PlayList fileおよびThumbnail fileの情報を取得し、ディスク(記録媒体100)に記録されているPlayListの一覧を示すGUI画面を作成し、ユーザインタフェースを通して、GUIに表示する。
ステップS112で、制御部23は、ユーザインタフェースを通して、ユーザが1つのPlayListの再生を指示する。
ステップS113で、制御部23はPlayListMarkで参照されるピクチャから生成したサムネールのリストを、ユーザインタフェースを通して、GUIに表示する。
ステップS114で、ユーザインタフェースを通して、制御部23にユーザが再生開始点のマーク点を指定する。
ステップS115で、制御部23は、CPI_typeはEP_mapタイプの場合は、マークのPTSとそれが属するPlayItem_idを取得する。または制御部23は、CPI_typeはTU_mapタイプの場合は、マークのATS(Arrival Time Stamp)を取得する。
ステップS116で、制御部23は、CPI_typeはEP_mapタイプの場合、PlayItem_idが指すPlayItemが参照するAVストリームのSTC-sequence-idを取得する。
ステップS117で、制御部23は、CPI_typeはEP_mapタイプの場合は、上記STC-sequence-idとマークのPTSに基づいて、AVストリームをデコーダへ入力する。具体的には、このSTC-sequence-idとマーク点のPTSを用いて、図104のステップS54、ステップS55と同様の処理を行う。または制御部23は、CPI_typeはTU_mapタイプの場合は、マークのATSに基づいて、AVストリームをデコーダへ入力する。具体的には、このATSを用いて図104のステップS54、 ステップS55と同様の処理を行う。
ステップS118で、制御部23は、CPI_typeがEP_mapタイプの場合は、マーク点のPTSのピクチャから表示を開始させる。または制御部23は、CPI_typeがTU_mapタイプの場合は、マーク点のATS以後のピクチャから表示を開始させる。
このように、図106のようにして、ユーザがPlayListからお気に入りのシーンの開始点等を選び、それをレコーダ(記録再生装置1の制御部23)はPlayListMarkに管理する。また図107のようにして、ユーザがPlayListMarkにストアされているマーク点のリストから再生開始点を選択して、プレーヤはその開始点から再生を開始する。
このようなシンタクス、データ構造、規則に基づく事により、記録媒体に記録されているデータの内容、再生情報などを適切に管理することができ、もって、ユーザが再生時に適切に記録媒体に記録されているデータの内容を確認したり、所望のデータを簡便に再生できるようにすることができる。
Iピクチャの位置を分析できる場合、EP_mapを用い、Iピクチャの位置を分析できない場合、TU_mapを用いるようにすることで、共通のアプリケーションプログラム(ソフトウエア)で、異なるフォーマットのAVストリームを、同一の記録媒体に対して記録し、再生し、管理することが可能となる。
AVストリームを、その中身(Iピクチャの位置)を分析して記録媒体に記録する場合(コグニザント記録する場合)、EP_mapを使用し、その中身(Iピクチャの位置)を分析せずに、そのまま記録媒体に記録する場合(ノンコグニザント記録する場合)、TU_mapを使用するなどして、共通のアプリケーションプログラムで、AVデータを、同一の記録媒体に記録し、再生し、管理することができる。
従って、例えば、スクランブルされたAVデータを、デスクランブルして(分析して)記録媒体に記録する場合、EP_mapを使用し、デスクランブルせずに(分析せずに)、そのまま記録媒体に記録する場合、TU_mapを使用するなどして、共通のアプリケーションプログラムで、AVデータを、同一の記録媒体に記録し、再生し、管理することができる。
さらに、EP_map typeとTU_map typeを、CPI_typeとして、PlayLyst()中に、記述できるようにしたので、Iピクチャの位置が分析できる場合、EP_mapを用い、Iピクチャの位置が分析できない場合、TU_mapを用いるようにすることができる。これにより、Iピクチャの位置を分析して記録するAVストリームデータと、分析しないで記録するAVストリームデータを、フラグを設定するだけで、共通のプログラムにより、統一して管理することが可能となる。
また、PlayListファイルやClip Informationファイルを別々に分離して記録するので、編集などによって、あるPlayListやClipの内容を変更したとき、そのファイルに関係のない他のファイルを変更する必要がない。したがって、ファイルの内容の変更が容易に行え、またその変更および記録にかかる時間を小さくできる。
さらに、最初にInfo.dvrだけを読み出して、ディスクの記録内容をユーザインタフェースへ提示し、ユーザが再生指示したPlayListファイルとそれに関連するClip Informationファイルだけをディスクから読み出すようにすれば、ユーザの待ち時間を小さくすることができる。
もし、すべてのPlayListファイルやClip Informationファイルを1つのファイルにまとめて記録すると、そのファイルサイズは非常に大きくなる。そのために、そのファイルの内容を変更して、それを記録するためにかかる時間は、個々のファイルを別々に分離して記録する場合に比べて、非常に大きくなる。本発明は、この問題を解決する。
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
この記録媒体は、図108に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク221(フロッピディスクを含む)、光ディスク222(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク223(MD(Mini-Disk)を含む)、若しくは半導体メモリ224などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記憶されているROM202や記憶部208が含まれるハードディスクなどで構成される。
なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
1 記録再生装置, 11乃至13 端子, 14 解析部, 15 AVエンコーダ, 16 マルチプレクサ, 17 スイッチ, 18 多重化ストリーム解析部, 19 ソースパケッタイザ, 20 ECC符号化部, 21 変調部, 22 書き込み部, 23 制御部, 24 ユーザインタフェース, 26 デマルチプレクサ, 27 AVデコーダ, 28 読み出し部, 29 復調部, 30 ECC復号部, 31 ソースパケッタイザ, 32,33 端子

Claims (15)

  1. ストリームデータの再生区間を指定する再生区間情報を記録する情報処理装置であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの前記再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録手段
    を有し、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    情報処理装置。
  2. 前記連続区間識別情報は、前記連続区間のうちの1つを示す
    請求項1に記載の情報処理装置。
  3. 前記記録手段はさらに、前記ストリームデータを構成する前記ソースパケットのシステム時間上の不連続点を示す不連続点情報を記録する
    請求項1に記載の情報処理装置
  4. 前記記録手段はさらに、プレゼンテーションタイムスタンプと、それに対応するアクセスユニットを構成するストリームデータのアドレスとのペアを有するアドレステーブルを記録する
    請求項1に記載の情報処理装置。
  5. 前記記録手段はさらに、前記再生区間情報で指定される前記再生区間を有する前記ストリームデータとともに再生される、他のストリームデータの前記再生区間を指定する副再生区間情報を記録し、
    前記副再生区間情報は、前記連続区間識別情報と、前記他のストリームデータの前記再生区間の始点を示す前記始点時刻情報と、前記再生区間の終点を示す前記終点時刻情報とを含み、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    請求項1に記載の情報処理装置。
  6. 前記再生区間情報は、1以上の前記再生区間情報を含む再生指定情報に含まれる
    請求項1に記載の情報処理装置。
  7. ストリームデータの再生区間を指定する再生区間情報を記録する情報処理装置の情報処理方法であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの前記再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録ステップ
    を含み、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    情報処理方法。
  8. ストリームデータの再生区間を指定する再生区間情報を記録する情報処理装置を制御するコンピュータに、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの前記再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録ステップ
    を実行させるためのプログラムであって、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示され
    る前記連続区間上のプレゼンテーションタイムを示す
    プログラムを記録したコンピュータ読み取り可能な記録媒体。
  9. ストリームデータの再生区間を指定する再生区間情報を記録する情報処理装置を制御するコンピュータに、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの前記再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報を記録する記録ステップ
    を実行させるためのプログラムであって、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    プログラム。
  10. ストリームデータの再生区間を指定する再生区間情報を記録させる制御装置であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの前記再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む前記再生区間情報の記録を制御する記録制御手段
    を有し、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    制御装置。
  11. ストリームデータを再生する情報処理装置であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得手段と、
    前記再生区間情報を用いて前記ストリームデータを再生する再生手段と
    を有し、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    情報処理装置。
  12. ストリームデータを再生する情報処理装置の情報処理方法であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得ステップと、
    前記再生区間情報を用いて前記ストリームデータを再生する再生ステップと
    を含み、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    情報処理方法。
  13. ストリームデータを再生する情報処理装置を制御するコンピュータに、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得ステップと、
    前記再生区間情報を用いて前記ストリームデータを再生する再生ステップと
    を実行させるためのプログラムであって、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    プログラムを記録したコンピュータ読み取り可能な記録媒体。
  14. ストリームデータを再生する情報処理装置を制御するコンピュータに、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得ステップと、
    前記再生区間情報を用いて前記ストリームデータを再生する再生ステップと
    を実行させるためのプログラムであって、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    プログラム。
  15. ストリームデータの再生を制御する制御装置であって、
    前記ストリームデータを構成するソースパケットのシステム時間軸上の不連続点を含まない連続区間を示す連続区間識別情報と、前記ストリームデータの再生区間の始点を示す始点時刻情報と、前記再生区間の終点を示す終点時刻情報とを含む、前記ストリームデータの前記再生区間を指定する再生区間情報を取得する取得手段と、
    前記再生区間情報を用いて前記ストリームデータの再生を制御する再生制御手段と
    を有し、
    前記始点時刻情報及び前記終点時刻情報は、ともに前記連続区間識別情報により示される前記連続区間上のプレゼンテーションタイムを示す
    制御装置。
JP2011065246A 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造 Expired - Lifetime JP4919129B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011065246A JP4919129B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000183771 2000-04-21
JP2000183771 2000-04-21
JP2000271552 2000-09-07
JP2000271552 2000-09-07
JP2011065246A JP4919129B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010020766A Division JP4947159B2 (ja) 2000-04-21 2010-02-01 情報処理装置、情報処理方法、記録媒体、およびプログラム、再生制御装置、並びに制御装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011272074A Division JP5051804B2 (ja) 2000-04-21 2011-12-13 記録媒体

Publications (3)

Publication Number Publication Date
JP2011166803A JP2011166803A (ja) 2011-08-25
JP2011166803A5 JP2011166803A5 (ja) 2011-12-22
JP4919129B2 true JP4919129B2 (ja) 2012-04-18

Family

ID=26594227

Family Applications (14)

Application Number Title Priority Date Filing Date
JP2001091830A Expired - Lifetime JP4599740B2 (ja) 2000-04-21 2001-03-28 情報処理装置および方法、記録媒体、プログラム、並びに記録媒体
JP2010020766A Expired - Lifetime JP4947159B2 (ja) 2000-04-21 2010-02-01 情報処理装置、情報処理方法、記録媒体、およびプログラム、再生制御装置、並びに制御装置
JP2010175703A Expired - Lifetime JP4999972B2 (ja) 2000-04-21 2010-08-04 記録媒体
JP2011065245A Expired - Lifetime JP4919128B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065246A Expired - Lifetime JP4919129B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065244A Expired - Lifetime JP4919127B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065243A Expired - Lifetime JP4915484B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065247A Expired - Lifetime JP4919130B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011271259A Expired - Fee Related JP5051802B2 (ja) 2000-04-21 2011-12-12 記録媒体
JP2011272073A Expired - Fee Related JP5051803B2 (ja) 2000-04-21 2011-12-13 記録媒体
JP2011272074A Expired - Fee Related JP5051804B2 (ja) 2000-04-21 2011-12-13 記録媒体
JP2011272992A Expired - Fee Related JP5051805B2 (ja) 2000-04-21 2011-12-14 記録媒体
JP2011272991A Expired - Fee Related JP5063808B2 (ja) 2000-04-21 2011-12-14 記録媒体
JP2012004836A Expired - Fee Related JP5051807B2 (ja) 2000-04-21 2012-01-13 記録媒体

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2001091830A Expired - Lifetime JP4599740B2 (ja) 2000-04-21 2001-03-28 情報処理装置および方法、記録媒体、プログラム、並びに記録媒体
JP2010020766A Expired - Lifetime JP4947159B2 (ja) 2000-04-21 2010-02-01 情報処理装置、情報処理方法、記録媒体、およびプログラム、再生制御装置、並びに制御装置
JP2010175703A Expired - Lifetime JP4999972B2 (ja) 2000-04-21 2010-08-04 記録媒体
JP2011065245A Expired - Lifetime JP4919128B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造

Family Applications After (9)

Application Number Title Priority Date Filing Date
JP2011065244A Expired - Lifetime JP4919127B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065243A Expired - Lifetime JP4915484B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011065247A Expired - Lifetime JP4919130B2 (ja) 2000-04-21 2011-03-24 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP2011271259A Expired - Fee Related JP5051802B2 (ja) 2000-04-21 2011-12-12 記録媒体
JP2011272073A Expired - Fee Related JP5051803B2 (ja) 2000-04-21 2011-12-13 記録媒体
JP2011272074A Expired - Fee Related JP5051804B2 (ja) 2000-04-21 2011-12-13 記録媒体
JP2011272992A Expired - Fee Related JP5051805B2 (ja) 2000-04-21 2011-12-14 記録媒体
JP2011272991A Expired - Fee Related JP5063808B2 (ja) 2000-04-21 2011-12-14 記録媒体
JP2012004836A Expired - Fee Related JP5051807B2 (ja) 2000-04-21 2012-01-13 記録媒体

Country Status (22)

Country Link
US (2) US7738776B2 (ja)
EP (6) EP2256736A3 (ja)
JP (14) JP4599740B2 (ja)
KR (2) KR100948439B1 (ja)
CN (2) CN100394791C (ja)
AU (1) AU779673B2 (ja)
BR (3) BRPI0106082B1 (ja)
CA (1) CA2377690C (ja)
CZ (1) CZ20014489A3 (ja)
DK (1) DK1569449T3 (ja)
ES (1) ES2399331T3 (ja)
HK (1) HK1050975A1 (ja)
HU (1) HU229461B1 (ja)
IL (1) IL147155A (ja)
MX (1) MXPA01013122A (ja)
NO (1) NO20016292L (ja)
PL (1) PL351918A1 (ja)
PT (1) PT1569449E (ja)
RO (1) RO122068B1 (ja)
RU (1) RU2314653C2 (ja)
SK (1) SK18982001A3 (ja)
WO (1) WO2001082606A1 (ja)

Families Citing this family (195)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6808709B1 (en) * 1994-12-30 2004-10-26 The Regents Of The University Of California Immunoglobulins containing protection proteins and their use
IL132859A (en) * 1999-11-10 2008-07-08 Nds Ltd Data stream processing system
WO2001082611A1 (fr) * 2000-04-21 2001-11-01 Sony Corporation Procede et appareil de traitement d'informations, support enregistre, et programme
GB0117926D0 (en) * 2001-07-23 2001-09-12 Nds Ltd Method for random access to encrypted content
KR100871850B1 (ko) * 2001-09-27 2008-12-03 삼성전자주식회사 비디오 데이터 기록방법, 그 기록장치 및 정보저장매체
JP3656248B2 (ja) 2001-10-09 2005-06-08 ソニー株式会社 ビデオ信号記録装置および方法、ビデオ信号再生装置および方法、記録媒体、プログラム、並びにデータ構造
JP3716920B2 (ja) * 2001-10-16 2005-11-16 ソニー株式会社 記録媒体再生装置および方法、記録媒体、並びにプログラム
GB0127234D0 (en) 2001-11-13 2002-01-02 British Sky Broadcasting Ltd Improvements in receivers for television signals
KR100563668B1 (ko) 2001-12-22 2006-03-28 엘지전자 주식회사 재기록 가능 고밀도 기록매체의 더빙 오디오 기록방법
KR100563667B1 (ko) 2001-12-24 2006-03-28 엘지전자 주식회사 재기록 가능 기록매체에의 정지영상 기록방법
KR20030062737A (ko) * 2002-01-18 2003-07-28 엘지전자 주식회사 재기록 가능 고밀도 기록매체의 축소영상 기록방법
KR100563670B1 (ko) 2002-01-28 2006-03-28 엘지전자 주식회사 재기록 가능 고밀도 기록매체의 정지영상 기록방법
US7369745B2 (en) 2002-04-10 2008-05-06 Sony Corporation Data recording device and method, program storage medium, and program
KR100880627B1 (ko) * 2002-04-25 2009-01-30 엘지전자 주식회사 멀티 더빙 오디오 스트림의 기록 및 재생 관리방법
KR20030087193A (ko) 2002-05-07 2003-11-14 엘지전자 주식회사 멀티 채널 방송 스트림의 기록 관리방법
US8027562B2 (en) * 2002-06-11 2011-09-27 Sanyo Electric Co., Ltd. Method and apparatus for recording images, method and apparatus for recording and reproducing images, and television receiver utilizing the same
CA2465105C (en) 2002-06-21 2012-08-28 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
CA2462070C (en) 2002-06-21 2012-03-20 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
KR20040000290A (ko) 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
CN101350215B (zh) 2002-06-24 2012-08-29 Lg电子株式会社 记录和再现用于视频数据的再现的数据结构的方法及装置
KR100550697B1 (ko) 2002-06-24 2006-02-08 엘지전자 주식회사 다중 타이틀 비디오 데이터의 재생을 관리하기 위한데이터 구조를 갖는 기록 매체와 그에 따른 기록 및 재생방법 및 장치
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
CA2459086C (en) 2002-06-28 2013-08-13 Lg Electronics Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
WO2004003907A1 (en) * 2002-06-28 2004-01-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
CN1578984B (zh) 2002-09-05 2010-08-25 Lg电子株式会社 一种记录和再现方法及装置
AU2003260975B8 (en) * 2002-09-06 2009-08-13 Lg Electronics Inc. Recording medium having data structure for managing reproduction of still images recorded thereon and recording and reproducing methods and apparatuses
CA2462192C (en) 2002-09-07 2013-07-30 Lg Electronics Inc. Recording medium having data structure for managing reproduction of still images from a clip file recorded thereon and recording and reproducing methods and apparatuses
JP2004128769A (ja) * 2002-10-01 2004-04-22 Pioneer Electronic Corp 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
JP3975147B2 (ja) * 2002-10-01 2007-09-12 パイオニア株式会社 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
EP1408505A1 (en) 2002-10-11 2004-04-14 Deutsche Thomson-Brandt Gmbh Method and apparatus for synchronizing data streams containing audio, video and/or other data
JP4431043B2 (ja) 2002-10-14 2010-03-10 エルジー エレクトロニクス インコーポレイティド 記録された複数のオーディオストリームの再生を管理するためのデータ構造を有する光ディスク、それによる記録及び再生方法及び装置
RU2334287C2 (ru) 2002-10-15 2008-09-20 Эл Джи Электроникс Инк. Носитель записи со структурой данных для управления воспроизведением записанных на нем нескольких графических потоков и способы и устройства записи и воспроизведения
KR100620332B1 (ko) * 2002-11-08 2006-09-13 엘지전자 주식회사 멀티 컴포넌트 스트림의 기록 방법 및 장치와, 그에 따라기록된 멀티 컴포넌트 스트림을 갖는 고밀도 광디스크그리고 이의 재생 방법과 장치
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) * 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
AU2003282415B2 (en) 2002-11-20 2007-10-18 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data recorded thereon and recording and reproducing methods and apparatuses
EP1568030B1 (en) * 2002-11-22 2015-01-21 LG Electronics, Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
KR20050084154A (ko) 2002-12-05 2005-08-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 프레임 편집 방법 및 장치
JP3815458B2 (ja) 2002-12-18 2006-08-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN100448285C (zh) * 2002-12-18 2008-12-31 索尼株式会社 信息处理设备和信息处理方法
EP1595253A4 (en) 2003-01-20 2009-09-30 Lg Electronics Inc RECORDING MEDIUM COMPRISING A DATA STRUCTURE FOR MANAGING THE REPRODUCTION OF MEDIA RECORDED STILL IMAGES AND REPRODUCTIVE METHODS AND DEVICES
DE602004023815D1 (de) * 2003-01-20 2009-12-10 Lg Electronics Inc Aufzeichnungsmedium mit einer datenstruktur zur verwaltung der wiedergabe von darauf aufgezeichneten standbildern und aufzeichnungs- und wiedergabeverfahren und vorrichtungen
CN100418140C (zh) * 2003-01-20 2008-09-10 Lg电子株式会社 具有用于管理记录在其上的静止图象的再现的数据结构的记录媒体以及记录和再现的方法和装置
US8145033B2 (en) 2003-02-05 2012-03-27 Lg Electronics Inc. Recording medium having data structure for managing reproducton duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
US7734154B2 (en) 2003-02-14 2010-06-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
US8055117B2 (en) 2003-02-15 2011-11-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
US8041179B2 (en) 2003-02-24 2011-10-18 Lg Electronics Inc. Methods and apparatuses for reproducing and recording still picture and audio data and recording medium having data structure for managing reproduction of still picture and audio data
US7606463B2 (en) * 2003-02-24 2009-10-20 Lg Electronics, Inc. Recording medium having data structure for managing playback control and recording and reproducing methods and apparatuses
US7693394B2 (en) * 2003-02-26 2010-04-06 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
CN100397882C (zh) * 2003-02-28 2008-06-25 Lg电子株式会社 具有用于管理记录其上的视频数据的随机/洗牌重现的数据结构的记录媒体以及记录和重现的方法和装置
US7620301B2 (en) 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
KR101053619B1 (ko) * 2003-04-09 2011-08-03 엘지전자 주식회사 텍스트 서브타이틀 데이터의 재생을 관리하기 위한 데이터구조를 갖는 기록 매체, 그에 따른 기록 및 재생 방법 및장치
US7660511B2 (en) * 2003-04-23 2010-02-09 Panasonic Corporation Recording medium, playback device, recording method, playback program, and playback method designating cue-up position using playlist mark information
JP4228767B2 (ja) 2003-04-25 2009-02-25 ソニー株式会社 再生装置、再生方法、再生プログラムおよび記録媒体
JP4902935B2 (ja) 2003-05-08 2012-03-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び記録媒体
BRPI0410734A (pt) * 2003-05-27 2006-06-27 Lg Electronics Inc meio fìsico de gravação tendo estrutura de dados para gerenciar seus dados principais e dados adicionais de conteúdo e métodos e aparelhos de gravação e reprodução
JP2005004866A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP3931843B2 (ja) 2003-06-13 2007-06-20 株式会社日立製作所 記録媒体および再生方法
KR20050001171A (ko) * 2003-06-27 2005-01-06 엘지전자 주식회사 고밀도 광디스크의 부가 콘텐츠 데이터 관리 및 재생방법
WO2005010882A1 (en) 2003-07-24 2005-02-03 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
KR20050012328A (ko) 2003-07-25 2005-02-02 엘지전자 주식회사 고밀도 광디스크의 프레젠테이션 그래픽 데이터 관리 및재생방법과 그에 따른 고밀도 광디스크
EP2091048A3 (en) * 2003-08-12 2010-03-31 The DirectTV Group, Inc. Method and apparatus for navigating content in a personal video recorder
JP5090415B2 (ja) * 2003-10-10 2012-12-05 シャープ株式会社 再生装置、ビデオデータの再生方法、制御プログラム、及びコンテンツ記録媒体
EP2204805B1 (en) 2003-10-10 2012-06-06 Sharp Kabushiki Kaisha A content reproducing apparatus, a content recording medium, a control program and a computer-readable recording medium
KR20050035678A (ko) * 2003-10-14 2005-04-19 엘지전자 주식회사 광디스크 장치의 부가 데이터 재생방법 및 장치와, 이를위한 광디스크
KR20050036277A (ko) 2003-10-15 2005-04-20 엘지전자 주식회사 고밀도 광디스크의 네비게이션 정보 관리방법
KR20050047710A (ko) * 2003-11-18 2005-05-23 엘지전자 주식회사 고밀도 광디스크의 합성 플레이리스트 생성방법, 관리방법및 재생방법과 기록재생장치
KR20050048848A (ko) * 2003-11-20 2005-05-25 엘지전자 주식회사 고밀도 광디스크의 플레이리스트 생성방법, 관리방법 및재생방법과 기록재생장치
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
EP1542231A1 (en) * 2003-12-08 2005-06-15 Canon Kabushiki Kaisha Recording apparatus and recording method capable of recording series of content data on different recording media
KR101053575B1 (ko) * 2003-12-09 2011-08-03 엘지전자 주식회사 고밀도 광디스크 및 고밀도 광디스크의 파일 구성방법
JP4140518B2 (ja) * 2003-12-15 2008-08-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
KR20050064150A (ko) * 2003-12-23 2005-06-29 엘지전자 주식회사 고밀도 광디스크의 메뉴 구성방법 및 실행방법과기록재생장치
KR20050066264A (ko) 2003-12-26 2005-06-30 엘지전자 주식회사 고밀도 광디스크의 메뉴 구성방법 및 실행방법과기록재생장치
KR20050066265A (ko) * 2003-12-26 2005-06-30 엘지전자 주식회사 고밀도 광디스크의 메뉴 구성방법 및 실행방법과기록재생장치
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
EP1721319A2 (en) * 2004-01-06 2006-11-15 LG Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR100937421B1 (ko) * 2004-01-13 2010-01-18 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 관리를 포함한 파일구성방법 및 재생방법과 기록재생장치
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
US20080002947A1 (en) * 2004-02-06 2008-01-03 Wataru Ikeda Recording medium, reproduction device, program and reproduction method
US8391672B2 (en) 2004-02-06 2013-03-05 Panasonic Corporation Recording medium, reproduction device, program, and reproduction method
EP1716566A1 (en) * 2004-02-10 2006-11-02 LG Electronic Inc. Recording medium having a data structure for managing font information for text subtitles and recording and reproducing methods and apparatuses
WO2005076601A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
WO2005076278A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Recording medium having a data structure for managing data streams associated with different languages and recording and reproducing methods and apparatuses
CN1939060B (zh) * 2004-02-10 2010-09-29 汤姆逊许可公司 一种用于促进视频信息的流式传输的方法和设备
RU2377669C2 (ru) * 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
US20050196146A1 (en) * 2004-02-10 2005-09-08 Yoo Jea Y. Method for reproducing text subtitle and text subtitle decoding system
EP1714281A2 (en) 2004-02-10 2006-10-25 LG Electronic Inc. Recording medium and method and apparatus for decoding text subtitle streams
US7587405B2 (en) * 2004-02-10 2009-09-08 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
WO2005074394A2 (en) * 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium having a data structure for managing various data and recording and reproducing methods and apparatuses
EP1717808A4 (en) 2004-02-16 2010-10-06 Sony Corp PLAYING DEVICE, PLAY PROCESS, PROGRAM, RECORDING MEDIA AND DATA STRUCTURE
AU2011218752A1 (en) * 2004-02-16 2011-09-22 Sony Corporation Reproduction device, reproduction method, program, recording medium, and data structure
KR20060129067A (ko) * 2004-02-26 2006-12-14 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 기록 재생 방법과장치
KR20060043573A (ko) 2004-03-12 2006-05-15 엘지전자 주식회사 기록매체 및 기록매체에의 기록방법 및 기록장치와 기록매체의 백업 파일 관리방법
US8271752B2 (en) 2004-03-12 2012-09-18 Lg Electronics, Inc. Recording medium, method and apparatus for recording on recordable recording medium, and method for managing backup files of the same
KR101102398B1 (ko) 2004-03-18 2012-01-05 엘지전자 주식회사 기록매체 및 기록매체상에 기록된 텍스트 서브타이틀스트림 재생 방법과 장치
CN101114500B (zh) * 2004-03-26 2010-06-09 Lg电子株式会社 用于再现和记录文本字幕流的记录介质以及方法和设备
CN100525423C (zh) * 2004-04-07 2009-08-05 松下电器产业株式会社 信息记录装置和记录方法
WO2005099258A1 (ja) * 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
US8055122B2 (en) * 2004-04-07 2011-11-08 Panasonic Corporation Information recording medium wherein stream convertible at high-speed is recorded, and recording apparatus and recording method therefor
EP1737228B1 (en) * 2004-04-07 2011-11-23 Panasonic Corporation Information recording apparatus and information converting method
WO2005099257A1 (ja) * 2004-04-07 2005-10-20 Matsushita Electric Industrial Co., Ltd. 高速変換可能なストリームを記録した情報記録媒体並びにその記録装置及び記録方法
EP1746825B1 (en) * 2004-04-16 2011-06-08 Panasonic Corporation Recording medium, reproduction device, program
JP4249224B2 (ja) * 2004-04-16 2009-04-02 パナソニック株式会社 再生装置、及び記録方法
JP4186871B2 (ja) * 2004-05-21 2008-11-26 船井電機株式会社 記録再生装置
JP4764855B2 (ja) * 2004-06-02 2011-09-07 パナソニック株式会社 記録方法、再生システム
JP4658986B2 (ja) * 2004-06-02 2011-03-23 パナソニック株式会社 システムlsi
KR100884150B1 (ko) * 2004-06-02 2009-02-17 파나소닉 주식회사 슬라이드 쇼에서 랜덤 액세스를 고속으로 실현할 수 있는 기록매체, 재생장치, 컴퓨터 판독 가능한 기록매체, 기록방법, 재생방법
JP4608953B2 (ja) * 2004-06-07 2011-01-12 ソニー株式会社 データ記録装置、方法およびプログラム、データ再生装置、方法およびプログラム、ならびに、記録媒体
JP4542546B2 (ja) * 2004-06-10 2010-09-15 パナソニック株式会社 データ処理装置
KR100667756B1 (ko) * 2004-07-01 2007-01-11 삼성전자주식회사 방송 스트림 저장/검색 방법 및 장치
US7613384B2 (en) * 2004-08-17 2009-11-03 Lg Electronics Inc. Method for configuring composite file structure for data reproduction, and method and apparatus for reproducing data using the composite file structure
US7725010B2 (en) * 2004-08-17 2010-05-25 Lg Electronics, Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7609945B2 (en) * 2004-08-17 2009-10-27 Lg Electronics Inc. Recording medium, and method and apparatus for reproducing data from the recording medium
US7609939B2 (en) * 2004-08-17 2009-10-27 Lg Electronics Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
ES2383276T3 (es) * 2004-08-17 2012-06-19 Panasonic Corporation Dispositivo y procedimiento de codificación de imágenes
JP2006066943A (ja) 2004-08-24 2006-03-09 Sony Corp 情報処理装置および方法、並びにプログラム
WO2006025606A1 (ja) * 2004-09-02 2006-03-09 Nec Corporation データ放送記録方法、装置、および記録媒体
US7609947B2 (en) * 2004-09-10 2009-10-27 Panasonic Corporation Method and apparatus for coordinating playback from multiple video sources
US7599611B2 (en) * 2004-09-13 2009-10-06 Lg Electronics Co. Recording medium, and method and apparatus of reproducing data recorded on the same
US20060056804A1 (en) * 2004-09-13 2006-03-16 Seo Kang S Recording medium, and method and apparatus for reproducing data from the recording medium
KR100782810B1 (ko) 2005-01-07 2007-12-06 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체를 재생하는 방법 및 장치
TWI323456B (en) 2005-01-07 2010-04-11 Samsung Electronics Co Ltd Storage medium storing metadata for providing enhanced search function
US8369689B2 (en) 2005-01-26 2013-02-05 Sharp Kabushiki Kaisha Information recording/reproduction device and information recording medium
JP4968506B2 (ja) * 2005-03-04 2012-07-04 ソニー株式会社 再生装置、再生方法、およびプログラム
CN101167130B (zh) 2005-03-22 2013-03-13 松下电器产业株式会社 流数据记录装置、流数据记录再现装置、流数据再现装置、流数据编辑装置、流记录方法、以及流再现方法
US8752198B2 (en) * 2005-05-26 2014-06-10 Hewlett-Packard Development Company, L.P. Virtual write protection system
KR101248305B1 (ko) * 2005-07-27 2013-03-27 파나소닉 주식회사 정보 기록 매체, 기록 장치, 및 기록 방법
JP2009512965A (ja) * 2005-10-24 2009-03-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 光ディスクを編集する方法及び装置
CN101305425B (zh) 2005-11-07 2012-06-27 皇家飞利浦电子股份有限公司 光盘节目编辑方法及装置
WO2007106844A2 (en) 2006-03-14 2007-09-20 Divx, Inc. Federated digital rights management scheme including trusted systems
US8125987B2 (en) * 2006-03-30 2012-02-28 Broadcom Corporation System and method for demultiplexing different stream types in a programmable transport demultiplexer
JP4719053B2 (ja) * 2006-03-31 2011-07-06 株式会社東芝 エントリポイントを用いた再生方法およびこの方法を用いる記録再生装置
JP4765733B2 (ja) 2006-04-06 2011-09-07 ソニー株式会社 記録装置、記録方法および記録プログラム
JP4591405B2 (ja) * 2006-05-10 2010-12-01 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP4162691B2 (ja) * 2006-09-27 2008-10-08 株式会社東芝 番組構造化装置、番組構造化方法およびプログラム
KR101318081B1 (ko) 2006-11-21 2013-10-14 엘지디스플레이 주식회사 액정표시장치와 그 구동방법
JP4775241B2 (ja) 2006-12-06 2011-09-21 株式会社日立製作所 記録方法
JP4735525B2 (ja) 2006-12-06 2011-07-27 株式会社日立製作所 記録方法
JP4735524B2 (ja) 2006-12-06 2011-07-27 株式会社日立製作所 記録方法
JP2008152871A (ja) * 2006-12-19 2008-07-03 Victor Co Of Japan Ltd 情報記録再生装置及び再生装置
EP4184341A1 (en) 2007-01-05 2023-05-24 DivX, LLC Video distribution system including progressive playback
JP2008204560A (ja) * 2007-02-21 2008-09-04 D & M Holdings Inc 再生装置、再生方法、プログラム及び記録媒体
JP4852453B2 (ja) 2007-03-19 2012-01-11 株式会社日立製作所 記録装置、映像再生装置、および、その特殊再生方法
JP5034608B2 (ja) 2007-03-30 2012-09-26 株式会社日立製作所 記録方法
KR20100106327A (ko) 2007-11-16 2010-10-01 디브이엑스, 인크. 멀티미디어 파일을 위한 계층적 및 감소된 인덱스 구조
CN101437150B (zh) * 2007-11-16 2011-11-09 华为技术有限公司 提供关联信息的装置及方法
JP4924447B2 (ja) * 2008-01-25 2012-04-25 ソニー株式会社 シーン切り替わり点検出器、シーン切り替わり点検出方法、記録装置、イベント生成器、イベント生成方法および再生装置
JP5031608B2 (ja) * 2008-02-01 2012-09-19 キヤノン株式会社 再生装置及び記憶媒体
JP4506879B2 (ja) * 2008-06-09 2010-07-21 ソニー株式会社 記録装置、記録方法、プログラム及び記録システム
MX2011010013A (es) * 2009-03-23 2011-10-11 Medicis Technologies Corp Analisis de datos de retrodispersion en tiempo real para generacion de señal de falla en un dispositivo hifu (ultrasonido enfocado de alta intensidad) medico.
CA2782825C (en) 2009-12-04 2016-04-26 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
JP2011223247A (ja) 2010-04-08 2011-11-04 Sony Corp 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5577805B2 (ja) 2010-04-08 2014-08-27 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5601006B2 (ja) 2010-04-08 2014-10-08 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP5494152B2 (ja) 2010-04-08 2014-05-14 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2011223248A (ja) 2010-04-08 2011-11-04 Sony Corp 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2010225266A (ja) * 2010-04-23 2010-10-07 Toshiba Corp エントリポイントを用いた再生方法およびこの方法を用いる記録再生装置
JP5110135B2 (ja) * 2010-08-30 2012-12-26 ソニー株式会社 記録媒体
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
JP2011175729A (ja) * 2011-04-08 2011-09-08 Hitachi Ltd 記録媒体および再生方法
US8812662B2 (en) 2011-06-29 2014-08-19 Sonic Ip, Inc. Systems and methods for estimating available bandwidth and performing initial stream selection when streaming content
CN102915316A (zh) * 2011-08-05 2013-02-06 宏碁股份有限公司 电子系统与多媒体播放方法
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
CN108989847B (zh) 2011-08-30 2021-03-09 帝威视有限公司 用于编码和流处理视频的系统和方法
US8799647B2 (en) 2011-08-31 2014-08-05 Sonic Ip, Inc. Systems and methods for application identification
US8787570B2 (en) 2011-08-31 2014-07-22 Sonic Ip, Inc. Systems and methods for automatically genenrating top level index files
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
JP5999405B2 (ja) 2011-11-28 2016-09-28 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2013115552A (ja) 2011-11-28 2013-06-10 Sony Corp 情報処理装置、情報処理方法、並びにプログラム
JP6010900B2 (ja) 2011-11-29 2016-10-19 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
US20130179199A1 (en) 2012-01-06 2013-07-11 Rovi Corp. Systems and methods for granting access to digital content using electronic tickets and ticket tokens
US9936267B2 (en) 2012-08-31 2018-04-03 Divx Cf Holdings Llc System and method for decreasing an initial buffering period of an adaptive streaming system
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9100687B2 (en) 2013-05-31 2015-08-04 Sonic Ip, Inc. Playback synchronization across playback devices
US9380099B2 (en) 2013-05-31 2016-06-28 Sonic Ip, Inc. Synchronizing multiple over the top streaming clients
US9386067B2 (en) 2013-12-30 2016-07-05 Sonic Ip, Inc. Systems and methods for playing adaptive bitrate streaming content by multicast
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
SG11201609457UA (en) 2014-08-07 2016-12-29 Sonic Ip Inc Systems and methods for protecting elementary bitstreams incorporating independently encoded tiles
WO2016112112A1 (en) 2015-01-06 2016-07-14 Sonic Ip, Inc. Systems and methods for encoding and sharing content between devices
WO2016138493A1 (en) 2015-02-27 2016-09-01 Sonic Ip, Inc. Systems and methods for frame duplication and frame extension in live video encoding and streaming
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US10231001B2 (en) 2016-05-24 2019-03-12 Divx, Llc Systems and methods for providing audio content during trick-play playback
US10129574B2 (en) 2016-05-24 2018-11-13 Divx, Llc Systems and methods for providing variable speeds in a trick-play mode
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
EP4398582A3 (en) 2019-03-21 2024-08-07 DivX, LLC Systems and methods for multimedia swarms
JP7540233B2 (ja) * 2020-08-06 2024-08-27 オムロン株式会社 制御装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807456B2 (ja) 1995-02-03 1998-10-08 株式会社東芝 画像情報記録媒体およびその製造方法
US6002834A (en) * 1995-02-24 1999-12-14 Hitachi, Ltd. Optical disk having table relating sector address and time and optical disk reproducing apparatus
JP4095681B2 (ja) * 1995-02-24 2008-06-04 株式会社日立製作所 データ記録方法及び装置及びデータ記録再生装置
JP3309656B2 (ja) 1995-08-18 2002-07-29 ソニー株式会社 画像処理装置及び画像処理方法
JPH09238303A (ja) 1996-02-29 1997-09-09 Ricoh Co Ltd デジタルスチルビデオカメラ
US5838876A (en) * 1996-09-24 1998-11-17 Sony Corporation Frame-accurate edit and playback in digital stream recording
JPH10145735A (ja) 1996-11-05 1998-05-29 Toshiba Corp 復号装置および画像/音声再生方法
US5938876A (en) * 1997-01-31 1999-08-17 Morrison International, Inc. Method of making eyeglass lenses with add on segments
JP4363671B2 (ja) * 1997-03-20 2009-11-11 ソニー株式会社 データ再生装置及びデータ再生方法
JP3791114B2 (ja) 1997-04-30 2006-06-28 ソニー株式会社 信号再生装置及び方法
CA2247637A1 (en) * 1997-09-17 1999-03-17 Matsushita Electric Industrial Co., Ltd. Video data editing apparatus, optical disc for use as a recording medium of a video data editing apparatus, and computer-readable recording medium storing an editing program
EP0910087B1 (en) 1997-10-17 2011-11-30 Sony Corporation Recording apparatus and method, reproducing apparatus and method, recording/reproducing apparatus and method, recording medium and distribution medium
JPH11149717A (ja) 1997-11-19 1999-06-02 Toshiba Corp デコード処理方法及び装置
JP3324480B2 (ja) * 1997-12-05 2002-09-17 松下電器産業株式会社 記録再生装置及び再生装置
TW385436B (en) 1997-12-12 2000-03-21 Toshiba Corp Digital recording system using variable recording rate
JPH11259992A (ja) * 1998-03-10 1999-09-24 Toshiba Corp 情報記録媒体と情報記録装置と情報編集装置とディジタル放送記録装置
WO1999048094A2 (en) * 1998-03-19 1999-09-23 Koninklijke Philips Electronics N.V. Recording/reproduction and/or editing of real time information on/from a disc like record carrier
JPH11298845A (ja) * 1998-04-08 1999-10-29 Matsushita Electric Ind Co Ltd 光ディスク、光ディスクレコーダおよび光ディスクプレーヤ
CN1237822C (zh) * 1998-04-08 2006-01-18 松下电器产业株式会社 光盘、光盘记录方法和装置,以及光盘再现方法和装置
JP3997367B2 (ja) 1998-04-30 2007-10-24 ソニー株式会社 記録再生装置および方法、並びに記録媒体
JP3356991B2 (ja) * 1998-06-17 2002-12-16 株式会社日立製作所 光ディスク、記録方法、記録装置、再生方法及び再生装置
GB9813831D0 (en) 1998-06-27 1998-08-26 Philips Electronics Nv Frame-accurate editing of encoded A/V sequences
JP3677176B2 (ja) 1998-07-07 2005-07-27 株式会社東芝 オブジェクト分割及び消去禁止フラグ処理用情報記録方法及び媒体及び再生装置
JP3383587B2 (ja) * 1998-07-07 2003-03-04 株式会社東芝 静止画像連続情報記録方法と光ディスクと光ディスクの情報再生装置と情報再生方法
EP0991072A1 (en) * 1998-09-07 2000-04-05 Deutsche Thomson-Brandt Gmbh Method for addressing a bit stream recording
EP0986062A1 (en) 1998-09-07 2000-03-15 Deutsche Thomson-Brandt Gmbh Method for addressing a bit stream recording
JP4093722B2 (ja) * 1998-09-08 2008-06-04 シャープ株式会社 動画像編集方法、動画像編集装置および動画像再生装置
CA2289958C (en) * 1998-11-19 2003-01-21 Tomoyuki Okada Information recording medium, apparatus and method for recording or reproducing data thereof
EP1021048A3 (en) 1999-01-14 2002-10-02 Kabushiki Kaisha Toshiba Digital video recording system and its recording medium
EP1084494B1 (en) * 1999-03-01 2008-08-13 Koninklijke Philips Electronics N.V. A method of storing a real time stream of information signals on a disc like record carrier
JP2001076473A (ja) * 1999-09-07 2001-03-23 Fujitsu Ltd 記録再生装置
JP4389365B2 (ja) * 1999-09-29 2009-12-24 ソニー株式会社 トランスポートストリーム記録装置および方法、トランスポートストリーム再生装置および方法、並びにプログラム記録媒体
JP4328989B2 (ja) * 1999-11-24 2009-09-09 ソニー株式会社 再生装置、再生方法、並びに記録媒体

Also Published As

Publication number Publication date
JP2012130005A (ja) 2012-07-05
KR20020020918A (ko) 2002-03-16
HU229461B1 (hu) 2013-12-30
EP1569449A2 (en) 2005-08-31
JP4919128B2 (ja) 2012-04-18
PT1569449E (pt) 2013-01-24
EP2256738A3 (en) 2012-01-18
JP5051803B2 (ja) 2012-10-17
CN100348033C (zh) 2007-11-07
EP2256737A3 (en) 2012-01-11
JP2011135616A (ja) 2011-07-07
CN1381137A (zh) 2002-11-20
EP2256738A2 (en) 2010-12-01
WO2001082606A1 (fr) 2001-11-01
US8670646B2 (en) 2014-03-11
JP2011166801A (ja) 2011-08-25
CN100394791C (zh) 2008-06-11
IL147155A (en) 2008-07-08
JP2011004413A (ja) 2011-01-06
IL147155A0 (en) 2002-08-14
MXPA01013122A (es) 2002-06-04
JP4915484B2 (ja) 2012-04-11
CA2377690C (en) 2013-09-10
JP4947159B2 (ja) 2012-06-06
BRPI0106082B1 (pt) 2019-01-15
EP2256736A3 (en) 2012-01-11
NO20016292L (no) 2002-02-20
JP4999972B2 (ja) 2012-08-15
JP5051804B2 (ja) 2012-10-17
AU779673B2 (en) 2005-02-03
JP2011166800A (ja) 2011-08-25
KR100948439B1 (ko) 2010-03-17
JP2012065361A (ja) 2012-03-29
AU5440301A (en) 2001-11-07
BRPI0117209B1 (pt) 2019-01-15
CA2377690A1 (en) 2001-11-01
SK18982001A3 (sk) 2003-01-09
CN1607825A (zh) 2005-04-20
JP5063808B2 (ja) 2012-10-31
US7738776B2 (en) 2010-06-15
EP1280347A4 (en) 2004-10-06
EP2256739A2 (en) 2010-12-01
KR20080091525A (ko) 2008-10-13
JP5051805B2 (ja) 2012-10-17
JP2010148140A (ja) 2010-07-01
RU2314653C2 (ru) 2008-01-10
JP2012065363A (ja) 2012-03-29
EP1280347A1 (en) 2003-01-29
JP4919127B2 (ja) 2012-04-18
JP2011166803A (ja) 2011-08-25
NO20016292D0 (no) 2001-12-20
RU2005117968A (ru) 2006-12-20
JP5051802B2 (ja) 2012-10-17
EP1569449B1 (en) 2012-11-21
ES2399331T3 (es) 2013-03-27
JP4599740B2 (ja) 2010-12-15
BR0106082A (pt) 2002-05-21
JP2012130019A (ja) 2012-07-05
HK1050975A1 (en) 2003-07-11
JP2002158972A (ja) 2002-05-31
DK1569449T3 (da) 2013-01-02
EP2256737A2 (en) 2010-12-01
JP4919130B2 (ja) 2012-04-18
JP2012130006A (ja) 2012-07-05
HUP0202198A2 (en) 2002-10-28
US20050025461A1 (en) 2005-02-03
JP2011166802A (ja) 2011-08-25
RO122068B1 (ro) 2008-11-28
PL351918A1 (en) 2003-06-30
JP5051807B2 (ja) 2012-10-17
EP2256739A3 (en) 2012-01-18
CZ20014489A3 (cs) 2002-10-16
EP1569449A3 (en) 2005-11-09
EP2256736A2 (en) 2010-12-01
JP2012065359A (ja) 2012-03-29
US20020135607A1 (en) 2002-09-26
KR100875782B1 (ko) 2008-12-24

Similar Documents

Publication Publication Date Title
JP4919129B2 (ja) 情報処理装置、情報処理方法、記録媒体、およびプログラム、並びにデータ構造
JP5500398B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4517267B2 (ja) 記録装置および方法、再生装置および方法、プログラム、並びに記録媒体
JP4893841B2 (ja) 記録媒体
JP4682434B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4517266B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4355988B2 (ja) 情報処理装置、情報処理方法、プログラム記録媒体、プログラム、および情報記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20111108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120118

R151 Written notification of patent or utility model registration

Ref document number: 4919129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term