JPWO2006115060A1 - 記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体 - Google Patents

記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JPWO2006115060A1
JPWO2006115060A1 JP2006540064A JP2006540064A JPWO2006115060A1 JP WO2006115060 A1 JPWO2006115060 A1 JP WO2006115060A1 JP 2006540064 A JP2006540064 A JP 2006540064A JP 2006540064 A JP2006540064 A JP 2006540064A JP WO2006115060 A1 JPWO2006115060 A1 JP WO2006115060A1
Authority
JP
Japan
Prior art keywords
packet
audio
time information
reading
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006540064A
Other languages
English (en)
Other versions
JP4438798B2 (ja
Inventor
綾子 岩瀬
綾子 岩瀬
加藤 元樹
元樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2006115060A1 publication Critical patent/JPWO2006115060A1/ja
Application granted granted Critical
Publication of JP4438798B2 publication Critical patent/JP4438798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Abstract

本発明は、異なる符号化方式でエンコードされたオーディオデータのTSのランダムアクセス再生を行うことができるようにする、記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体に関するものである。コントローラは、TSからPTSを取得し、TSにおいて、BSオーディオTSパケット261−1より後ろの位置に、同じPTSを含むHQオーディオTSパケット271−1が存在する場合に、そのBSオーディオTSパケット261−1をエントリーポイントとして設定する。そして、コントローラは、BSオーディオESとHQオーディオESのPID、エントリーポイントとして設定されたBSオーディオTSパケット261−1のソースパケット番号、およびそのPTSとに基づいて、EP_mapを作成する。

Description

近年、記録再生装置から取り外し可能なディスク型の記録媒体として、各種の光ディスクが提案されつつある。このような記録可能な光ディスクに記録するAV(Audio Visual)ストリームは、例えば、MPEG(Moving Picture Experts Group)2の方式でTS(トランスポートストリーム)に多重化され、記録される。
特許文献1には、このようなMPEG2の方式を用いて、スライドショーを実現する場合の技術が開示されている。具体的には、Play ListとClipの2つのレイヤを用いて、記録媒体に記録された静止画像のアプリケーションフォーマットで、AV(Audio Visual)ストリームを管理することが開示されている。ここで、Clipは、1以上の静止画像と各静止画像の付属情報であるClip Informationとを管理し、Paly Listは、Clipの中の静止画像を使ったスライドショーの再生区間を示す複数のPlay Itemを有している。
そして、Play Itemの再生開始時刻IN_timeと再生終了時刻OUT_timeが示すトランスポートストリームのデータアドレスを、Clip Informationの中にある静止画像の識別情報とそれに対応するソースパケット番号とを示すテーブルであるEP_mapを参照することで取得し、オーディオと同期しない静止画のスライドショーを再生する技術が開示されている。
また、オーディオストリームにおける開始時刻と開始時刻および終了時刻に対応するソースパケット(アクセス最小単位)のアドレスを示す情報とが記述されたオーディオ用のEP_mapを用いて、各静止画の再生開始時刻があらかじめ決められているスライドショーに、オーディオを同期して再生させる技術が開示されている。
特開2004−336566号公報
しかしながら、特許文献1では、異なる符号化方式によりエンコードされた2つのオーディオストリームの同一のPIDのTSパケットを、1つのトランスポートストリームに多重化して記録することは考えられていなかった。
本発明はこのような状況に鑑みてなされたものであり、異なる符号化方式でエンコードされた2つのオーディオデータの同一のPIDのTSパケットを、1つのトランスポートストリームに多重化した場合に、容易に再生できるようにするものである。
本発明の記録装置は、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付手段と、受付手段により受け付けられたトランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得手段と、トランスポートストリームにおいて、取得手段により第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在するか否かを判定する判定手段と、判定手段により、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在すると判定された場合、第1の時刻情報が取得された第1のTSパケットをエントリーポイントとして設定する設定手段と、ストリームを識別する情報、設定手段によりエントリーポイントとして設定された第1のTSパケットの番号、および第1の時刻情報とに基づいて、テーブルを作成する作成手段と、作成手段により作成されたテーブルを記録媒体に記録させる記録制御手段とを備えることを特徴とする。
判定手段は、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットに含まれるオーディオアクセスユニットの先頭に、その位置からデコードを開始するためのデコード情報が含まれているか否かをさらに判定し、設定手段は、判定手段により、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在すると判定された場合、かつ、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットに含まれるオーディオアクセスユニットの先頭に、その位置からデコードするのに必要なデコード情報が含まれていると判定されたとき、第1の時刻情報が取得された第1のTSパケットをエントリーポイントとして設定するものとすることができる。
テーブルは、トランスポートストリーム中の時刻情報と、トランスポートストリームのTSパケットの番号とを対応付けるテーブルであるものとすることができる。
テーブルは、EP_mapであるものとすることができる。
時刻情報は、プレゼンテーションタイムスタンプであるものとすることができる。
記録制御手段により記録媒体に記録された情報を読み出す読み出し手段と、読み出し手段による読み出し位置を制御する制御手段とをさらに備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し手段の読み出し位置を制御し、読み出し手段は、制御手段による読み出し位置の制御に基づいて、記録媒体からトランスポートストリームを読み出すものとすることができる。
記録制御手段により記録媒体に記録された情報を読み出す読み出し手段と、読み出し手段による読み出し位置を制御する制御手段と第1の符号化方式によりエンコードされたオーディオデータをデコードするデコード手段とをさらに備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、対応する第1のTSパケットの番号を、読み出し位置として設定し、読み出し手段は、制御手段により設定された第1のTSパケットの番号からトランスポートストリームに含まれる第1のTSパケットを読み出し、デコード手段は、読み出し手段により読み出された第1のTSパケットに含まれる、第1の符号化方式によりエンコードされたオーディオデータをデコードするものとすることができる。
記録制御手段により記録媒体に記録された情報を読み出す読み出し手段と、読み出し手段による読み出し位置を制御する制御手段と第2の符号化方式によりエンコードされたオーディオデータをデコードするデコード手段とをさらに備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、対応する第1のTSパケットの番号を、読み出し位置として設定し、読み出し手段は、制御手段により設定された第1のTSパケットの番号より後ろの位置に記録されている第2のTSパケットを読み出し、制御手段は、読み出し手段により読み出された第2のTSパケットに含まれる時刻情報が、読み出し位置として設定された第1のTSパケットに含まれる時刻情報と一致する場合に、その第2のTSパケットの番号を、読み出し位置としてさらに設定し、読み出し手段は、制御手段により設定された第2のTSパケットの番号からトランスポートストリームに含まれる第2のTSパケットを読み出し、デコード手段は、読み出し手段により読み出された第2のTSパケットに含まれる、第2の符号化方式によりエンコードされたオーディオデータをデコードするものとすることができる。
本発明の記録方法は、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付ステップと、受付ステップの処理により受け付けられたトランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得ステップと、トランスポートストリームにおいて、取得ステップの処理により第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在するか否かを判定する判定ステップと、判定ステップの処理により、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在すると判定された場合、第1の時刻情報が取得された第1のTSパケットをエントリーポイントとして設定する設定ステップと、ストリームを識別する情報、設定ステップの処理によりエントリーポイントとして設定された第1のTSパケットの番号、および第1の時刻情報とに基づいて、テーブルを作成する作成ステップと、作成ステップの処理により作成されたテーブルを記録媒体に記録させる記録制御ステップとを含むことを特徴とする。
本発明の第1のプログラムは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付ステップと、受付ステップの処理により受け付けられたトランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得ステップと、トランスポートストリームにおいて、取得ステップの処理により第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在するか否かを判定する判定ステップと、判定ステップの処理により、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在すると判定された場合、第1の時刻情報が取得された第1のTSパケットをエントリーポイントとして設定する設定ステップと、ストリームを識別する情報、設定ステップの処理によりエントリーポイントとして設定された第1のTSパケットの番号、および第1の時刻情報とに基づいて、テーブルを作成する作成ステップと、作成ステップの処理により作成されたテーブルを記録媒体に記録させる記録制御ステップとを含む処理をコンピュータに実行させることを特徴とする。
第1の本発明においては、第1の符号化方式でエンコードされたオーディオデータがTSケット化された第1のTSパケットと、第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力が受け付けられ、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報が、第1の時刻情報として取得され、トランスポートストリームにおいて、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在すると判定された場合、第1の時刻情報が取得された第1のTSパケットがエントリーポイントとして設定され、ストリームを識別する情報、エントリーポイントとして設定された第1のTSパケットの番号、および第1の時刻情報とに基づいて、テーブルが作成され、記録媒体に記録される。
本発明の再生装置は、記録媒体に記録されたデータを再生する再生装置であって、そのデータは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている記録媒体に記録された情報を読み出す読み出し手段と、読み出し手段による読み出し位置を制御する制御手段とを備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し手段の読み出し位置を制御し、読み出し手段は、制御手段による読み出し位置の制御に基づいて、記録媒体からトランスポートストリームを読み出すことを特徴とする。
第1の符号化方式によりエンコードされたオーディオデータをデコードするデコード手段をさらに備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、対応する第1のTSパケットの番号を、読み出し位置として設定し、読み出し手段は、制御手段により設定された第1のTSパケットの番号からトランスポートストリームに含まれる第1のTSパケットを読み出し、デコード手段は、読み出し手段により読み出された第1のTSパケットに含まれる、第1の符号化方式によりエンコードされたオーディオデータをデコードするものとすることができる。
第2の符号化方式によりエンコードされたオーディオデータをデコードするデコード手段をさらに備え、読み出し手段は、記録媒体からテーブルを読み出し、制御手段は、テーブルと、ユーザからの再生位置の指定とに基づいて、対応する第1のTSパケットの番号を、読み出し位置として設定し、読み出し手段は、制御手段により設定された第1のTSパケットの番号より後ろの位置に記録されている第2のTSパケットを読み出し、制御手段は、読み出し手段により読み出された第2のTSパケットに含まれる時刻情報が、読み出し位置として設定された第1のTSパケットに含まれる時刻情報と一致する場合に、その第2のTSパケットの番号を、読み出し位置としてさらに設定し、読み出し手段は、制御手段により設定された第2のTSパケットの番号からトランスポートストリームに含まれる第2のTSパケットを読み出し、デコード手段は、読み出し手段により読み出された第2のTSパケットに含まれる、第2の符号化方式によりエンコードされたオーディオデータをデコードするものとすることができる。
本発明の再生方法は、記録媒体に記録されたデータを再生する再生装置の再生方法であって、そのデータは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている記録媒体からテーブルを読み出す第1の読み出しステップと、テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し位置を制御する制御ステップと、制御ステップの処理による読み出し位置の制御に基づいて、記録媒体からトランスポートストリームを読み出す第2の読み出しステップとを含むことを特徴とする。
本発明の第2のプログラムは、記録媒体に記録されたデータを再生するプログラムであって、そのデータは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている記録媒体からテーブルを読み出す第1の読み出しステップと、テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し位置を制御する制御ステップと、制御ステップの処理による読み出し位置の制御に基づいて、記録媒体からトランスポートストリームを読み出す第2の読み出しステップとを含む処理をコンピュータに実行させることを特徴とする。
第2の本発明においては、第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームと、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている記録媒体からテーブルが読み出され、テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し位置が制御され、記録媒体からトランスポートストリームが読み出される。
本発明の記録媒体は、オーディオデータに関するデータが記録されている記録媒体であって、そのデータは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されていることを特徴とする。
第3の本発明においては、第1の符号化方式でエンコードされたオーディオデータがTSパケット化された第1のTSパケットと、第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームと、トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、第1の時刻情報が取得された第1のTSパケットより後ろの位置に、第1の時刻情報と同じ時刻を表す時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、第1の時刻情報が取得された第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている。
本発明の再生方法は、記録媒体に記録されたデータを再生する再生方法であって、そのデータは、所定の符号化方式である第1の符号化方式でエンコードされたオーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、第1の符号化方式とは異なる第2の符号化方式でエンコードされたオーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、再生すべき第1の時刻情報を取得し、第1のTSパケットに対する記録媒体上の位置情報と、第1のTSパケットのデコードの際に利用される第2の時刻情報との対応情報を保持するテーブルを読み出し、第1の時刻情報に基づいて、テーブルに保持された第2の時刻情報を特定し、テーブルに基づいて特定された第2の時刻情報に対応する位置情報を取得し、位置情報における第1のTSパケットが記録された記録位置からデータの読み出しを開始し、データの読み出し開始位置から後方に多重化されている第2のTSパケットを取得し、読み出された第1のTSパケットのデコードは行わずに、取得された第2のTSパケットのデコードを開始することを特徴とする。
第4の本発明においては、再生すべき第1の時刻情報が取得され、第1のTSパケットに対する記録媒体上の位置情報と、第1のTSパケットのデコードの際に利用される第2の時刻情報との対応情報を保持するテーブルが読み出され、第1の時刻情報に基づいて、テーブルに保持された第2の時刻情報が特定され、テーブルに基づいて特定された第2の時刻情報に対応する位置情報が取得され、位置情報における第1のTSパケットが記録された記録位置からデータの読み出しが開始され、データの読み出し開始位置から後方に多重化されている第2のTSパケットが取得され、読み出された第1のTSパケットのデコードが行われずに、取得された第2のTSパケットのデコードが開始される。
第1の本発明によれば、オーディオストリームを記録することができる。特に、第1の本発明によれば、異なる符号化方式によりエンコードされたオーディオデータのTSパケットが多重化されたトランスポートストリームとともに、トランスポートストリームのランダムアクセスが可能となるような情報を記録することができる。
第2の本発明によれば、オーディオストリームを再生することができる。特に、第2の本発明によれば、異なる符号化方式によりエンコードされたオーディオデータのTSパケットが多重化されたトランスポートストリームにおいて、ランダムアクセス再生を行うことができる。
第3の本発明によれば、オーディオストリームが記録された記録媒体を提供することができる。特に、第3の本発明によれば、異なる符号化方式によりエンコードされたオーディオデータのTSパケットが多重化されたトランスポートストリームにおいて、ランダムアクセス再生を行うことができるような記録媒体を提供することができる。
本発明を適用した記録装置の構成例を示すブロック図である。 図1のAVエンコーダの構成例を示すブロック図である。 光ディスク上のアプリケーションフォーマットの例を示す図である。 EP_mapとClipAVストリームとの関係を説明する図である。 オーディオ用のEP_mapの構造を説明する図である。 Clipインフォメーションファイルのシンタクスを示す図である。 CPIを説明する図である。 メインパスとサブパスの構造を説明する図である。 PlayListのシンタクスを示す図である。 SubPathのシンタクスを示す図である。 SubPath_typeを説明する図である。 CPIのシンタクスを示す図である。 CPI_typeを説明する図である。 EP_mapについて説明する図である。 EP-fineとEP-coarseの関係を説明する図である。 PTS_EP_fineとPTS_EP_coarseのフォーマットを説明する図である。 SPN_EP_fineとSPN_EP_coarseのフォーマットを説明する図である。 EP-coarseのエントリーとEP-fineのエントリーを説明する図である。 EP_mapのシンタクスを示す図である。 EP_stream_typeを説明する図である。 EP_mapのEP_map_for_one_stream_PIDのシンタクスを示す図である。 EP_stream_typeの制約を説明する図である。 ClipInfoのシンタクスを示す図である。 application_typeを説明する図である。 application_typeが4であり、BSオーディオESのみによりTSが構成される場合の、EP_mapを説明する図である。 BSオーディオESのみによりTSが構成される場合と、BSオーディオESとHQオーディオESによりTSが構成される場合の差異を説明する図である。 BSオーディオESとHQオーディオESがTSとなるまでの流れを説明する図である。 HQオーディオTSパケットの構造を説明する図である。 TSパケットを多重化する場合の制約を説明する図である。 PTSの時刻について説明する図である。 application_typeが4であり、BSオーディオESとHQオーディオTSによりTSが構成される場合の、EP_mapを説明する図である。 Clipインフォメーションファイルの記録処理を説明するフローチャートである。 Clip作成処理を説明するフローチャートである。 BSオーディオESとHQオーディオESに対するEP_mapの作成処理を説明するフローチャートである。 本発明を適用した再生装置の構成例を示すブロック図である。 図35のAVデコーダの構成例を示すブロック図である。 図35のAVデコーダの他の構成例を示すブロック図である。 BSオーディオESに対するランダムアクセス再生処理を説明するフローチャートである。 HQオーディオESに対するランダムアクセス再生処理を説明するフローチャートである。
符号の説明
1 記録装置, 21 コントローラ, 22 操作入力部, 23 データ取得部, 24 AVエンコーダ, 26 PESパケット化部, 27 TSパケット化部, 28 記録制御部, 171 BSオーディオES, 172 BSオーディオPES, 173 BSオーディオTS, 181 HQオーディオES, 182 HQオーディオPES, 183 HQオーディオTS, 190 TS, 201 BSオーディオPESパケット, 211 HQオーディオPESパケット, 231 BSオーディオTSパケット, 232HQオーディオTSパケット, 261 BSオーディオTSパケット, 271 HQオーディオTSパケット, 341 再生装置, 351 コントローラ, 352 操作入力部, 354 再生制御部, 356 AVデコーダ
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した記録装置1の構成例を示すブロック図である。
この記録装置1には、光ディスク11、コントローラ21、操作入力部23、AV(Audio Visual)エンコーダ24、バッファ25、PES(Packetized Elementary Stream)パケット化部26、TS(Transport Stream)パケット化部27、記録制御部28、ドライブ29、およびリムーバブルメディア30が設けられている。
コントローラ21は、予め用意されている制御プログラムを実行することで、記録装置1の全体の動作を制御する。例えば、コントローラ21は、装着された記録媒体である光ディスク11に、AV(Audio Visual)ストリームを記録させるとともに、後述する再生装置(図35の再生装置341)において光ディスク11へのランダムアクセスができるようにするための、EP_map(詳細は後述する)などを記録させるための処理を制御することができる。
操作入力部22は、例えば、ボタン、キー、タッチパネル、ジョグダイヤル、マウスなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成され、ユーザの操作入力を取得し、コントローラ21に供給する。
データ取得部23は、AVデータ、すなわち、ビデオデータとオーディオデータを外部から取得し、AVエンコーダ24に供給する。AVエンコーダ24は、供給されたビデオデータとオーディオデータを、それぞれ所定の符号化方式でエンコード(符号化)し、ビデオES(エレメンタリーストリーム)とオーディオESとをバッファ25に供給する。
例えば、AVエンコーダ24には、図2に示されるように、第1のオーディオエンコーダ24−1、第2のオーディオエンコーダ24−2、およびビデオエンコーダ24−3が設けられている。第1のオーディオエンコーダ24−1は、第1の符号化方式でオーディオデータをエンコードし、エンコードして得られたオーディオESを出力する。また、第2のオーディオエンコーダ24−2は、第2の符号化方式でオーディオデータをエンコードし、エンコードして得られたオーディオESを出力する。さらに、ビデオエンコーダ24−3は、例えば、MPEG(Moving Picture Expert Group)2の符号化方式でビデオデータをエンコードし、エンコードして得られたビデオESを出力する。このように、AVエンコーダ24には、2つの異なる符号化方式のオーディオエンコーダが設けられている。
ここで、第1の符号化方式は、汎用のオーディオデコーダでデコード可能な音声符号化方式(例えば、固定長符号化方式)である。また、第2の符号化方式は、高性能なオーディオデコーダでのみでデコード可能な音声符号化方式(可変長符号化方式)である。具体的には、第2の符号化方式は、可変ビットレート(VBR)オーディオであり、復号時に、VBRのピークレートを低く抑えるためのFIFO(First-In First-Out)バッファを用いるオーディオ符号化方式である。すなわち、第2の符号化方式は、可変長符号化方式であり、この方式により符号化されたオーディオESを復号する場合、復号側では、FIFOバッファが必要となる。ここで、可変長符号化方式によりエンコードされて出力されるオーディオESの出力ビットレートは可変長とされる。逆に、固定長符号化方式(第1の符号化方式)によりエンコードされて出力されるオーディオESの出力ビットレートは固定長とされる。
以下において、第1のオーディオエンコーダ141が第1の符号化方式を用いてオーディオ信号をエンコードした結果のストリームを、BSオーディオES(基本オーディオエレメンタリストリーム)と称し、第2のオーディオエンコーダ142が第2の符号化方式を用いてオーディオ信号をエンコードした結果のストリームを、HQオーディオES(高品質オーディオエレメンタリストリーム)と称する。また、以下において、BSオーディオESと、HQオーディオESとを、個々に区別する必要がない場合、オーディオESと称する。
このように、AVエンコーダ24からは、第1のオーディオエンコーダ24−1によりエンコードされた結果のBSオーディオES、第2のオーディオエンコーダ24−2によりエンコードされた結果のHQオーディオES、および、ビデオエンコーダ24−3によりエンコードされた結果のビデオESが出力され、バッファ25に供給される。
図1に戻って、バッファ25は、エンコードされたデータ(BSオーディオES、HQオーディオES、およびビデオES)を一時バッファリングし、PESパケット化部26に供給する。PESパケット化部26は、BSオーディオES、HQオーディオES、およびビデオESを、コントローラ21からの制御に基づくタイミングでそれぞれ引き抜き、コントローラ21からの制御に基づいて、これをPESパケット化する。このとき、PESパケット化部26は、コントローラ21から供給されてきたPTS(プレゼンテーションタイムスタンプ)を、PESの各PESパケットに格納する。すなわち、PESパケット化部26から出力されるPESパケット(BSオーディオESに対応するPESパケット、HQオーディオESに対応するPESパケット、およびビデオESに対応するPESパケット)には、それぞれPTSが格納されている。PESパケット化部26は、PESパケットストリーム(複数のPESパケットからなるPESパケットストリーム)を、それぞれTSパケット化部27に供給する。
TSパケット化部27は、コントローラ21からの制御に基づいて、PESパケット化部26から供給されたPESパケットストリームをTSパケット(トランスポートストリームパケット)にパケット化する。具体的には、TSパケット化部27は、PESパケット化部26から供給されたBSオーディオPES、HQオーディオPES、およびビデオPESをTSパケット化する。そして、TSパケット化して得られたBSオーディオESのTSパケット、HQオーディオESのTSパケット、およびビデオESのTSパケットを、コントローラ21からの制御に基づいて多重化する。なお、この多重化するときの制約や、PESパケット化部26がPESパケット化するときの制約については後述する。TSパケット化部27は、多重化して得られたMPEG2-TSを、後段の記録制御部28に供給する。
なお、TSパケット化部27は、TSパケット化するとき(TSパケットを生成するとき)、BSオーディオPESとHQオーディオPESとを識別するためのtransport_priorityフラグと、オーディオストリームを識別するためのPIDを、TSパケットのヘッダ(TSヘッダ)に付加する。すなわち、生成されたBSオーディオTSを構成する複数のTSパケットの各TSヘッダに格納されているPIDと、HQオーディオTSを構成する複数のTSパケットの各TSヘッダに格納されているPIDとは、同一のPIDとされ、生成されたBSオーディオTSを構成する複数のTSパケットの各TSヘッダに格納されているtransport_priorityフラグと、HQオーディオTSを構成する複数のTSパケットの各TSヘッダに格納されているtransport_priorityフラグとは、異なるtransport_priorityフラグとされる。
具体的な例としては、TSパケット化部27は、BSオーディオTSを構成する複数のBSオーディオTSパケットの各TSヘッダに「PID=a0,tp(transport_priority)=1」を付加し、HQオーディオTSを構成する複数のBSオーディオTSパケットの各ヘッダに「PID=a0,tp(transport_priority)=0」を付加する。
記録制御部28は、コントローラ21による制御にしたがって、TSパケット化部27またはコントローラ21から供給されたデータ(MPEG2-TS)を光ディスク11に記録する。
また、例えば、操作入力部22は、ユーザからの、AVストリームの中の所定の再生区間の指定の入力を受け付け、これを、コントローラ21に供給する。これに対して、コントローラ21は、AVストリームのデータベース(Clip)、AVストリームの再生区間(PlayItem)をグループ化したもの(PlayList)のデータベース、および光ディスク11の記録内容の管理情報(info.dvr)を作成する。これらの情報から構成されるアプリケーションデータベース情報は、AVストリームと同様にして、記録制御部28へ入力される。記録制御部28は、コントローラ21から出力される制御信号に基づいて、光ディスク11へデータベースファイルを記録する。
ユーザが、操作入力部22に対して、ランダムアクセス再生を指示する情報を入力した場合、コントローラ21は、AVストリームのデータベース(Clip)の内容に基づいて、光ディスク11からのAVストリームの読み出し位置を決定し、そのAVストリームの読み出しを、記録制御部28に指示する。例えば、ユーザにより選択されたPlayListを、所定の時刻から再生する場合、コントローラ21は、指定された時刻に対応するデータを読み出すように記録制御部28に指示する。
また、コントローラ21には、必要に応じてドライブ29も接続されており、ドライブ29には、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVDを含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、または、半導体メモリなどよりなるリムーバブルメディア30が装着される。
なお、コンテンツを記録する記録媒体は、光ディスク11の他、例えば、磁気ディスクや半導体メモリであってもよいことは言うまでもない。
以下においては、2つの異なる符号化方式(第1の符号化方式と第2の符号化方式)でエンコードされたオーディオストリームがTS化されて光ディスク11に記録されている場合であって、ブラウザブルスライドショーをランダムアクセス可能とするための構成について説明していく。
図3は、図1の記録装置や後述する図35の再生装置341に装着される光ディスク11上のアプリケーションフォーマットの例を示す図である。
アプリケーションフォーマットは、AVストリームの管理のためにPlayListとClipの2つのレイヤを有している。ここでは、1つのAVストリームとそれに付随する情報であるClipインフォメーションのペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。また、ClipインフォメーションをClipインフォメーションファイルとも称する。
1つのAVストリームファイルは、MPEG(Moving Picture Expert Group)2トランスポートストリームをアプリケーションフォーマットによって規定される構造に配置したデータをストアする。一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。
Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイル(例えば、EP_map)は、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。
PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図3に示されるように1つ、または複数のPlayItemにより構成される。
図3において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。
例えば、図3のディスクナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemがユーザにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。
ディスクナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ディスクナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このディスクナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述され、記録媒体上に用意される。
本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに平行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、記録装置1や再生装置(図35を参照して後述する再生装置341)に装着される記録媒体上のアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)をPlayListの中に持つ。
次に、Clip Information file(図3のClipインフォメーション)について説明する。本実施の形態における記録装置1は、1つのClip AVストリームと、それに対応するのClip インフォメーションファイルとを別々のファイルとして、光ディスク11に記録する。Clip インフォメーションファイルは、CPI(Characteristic Point Information)とClipMarkとを有している。
CPIは、Clipインフォメーションファイルに含まれるデータであり、主に、それはClipへのアクセスポイントのタイムスタンプが与えられた時、Clip AV stream fileの中でデータの読み出しを開始すべきデータアドレスを見つけるために用いられる。本実施の形態では、EP_mapの種類のCPIが用いられる。
図4は、EP_mapとClip AVストリームとの関係を説明する図である。
EP_mapは、エントリーポイント(EP)データのリストであり、それはエレメンタリーストリームおよびトランスポートストリームから抽出されたものである。これは、AVストリームの中でデコードを開始すべきエントリーポイントの場所を見つけるためのアドレス情報を持つ。1つのEPデータは、プレゼンテーションタイムスタンプ(PTS)と、そのPTSに対応するアクセスユニットのAVストリームの中のデータアドレスの対で構成される。
EP_mapは、主に2つの目的のために使用される。第1に、PlayListの中でプレゼンテーションタイムスタンプによって参照されるアクセスユニットのAVストリームの中のデータアドレスを見つけるために使用される。ランダムアクセス再生される場合もこれに該当する。第2に、ファーストフォワード再生やファーストリバース再生のために使用される。記録装置1が、AVストリームを記録する場合(後述する図33の処理)や、AVストリームのシンタクスを解析することができるとき(後述する図32の処理)、EP_mapが作成され、ディスクに記録される。
図4に示すように、Clipの中のアクセスポイントをプレゼンテーションタイムスタンプ(PTS)で指定されたときに、Clip AVストリームファイルの中でストリームのデコードを開始すべきアドレス情報を見つけるためにEP_mapが用いられる。このように、EP_mapは、上述したPlayListで示される時間軸上のIN点及びOUT点に対応するアドレスを示すテーブルであり、PlayList等のプレゼンテーションタイムスタンプ(PTS)をこれに対応するアドレスに変換するために使用される。すなわち、EP_mapは、プレゼンテーションタイムスタンプ(PTS)と、Clip AVストリームのソースパケットナンバー(トランスポートストリームのTS(トランスポートストリーム)パケットの番号)とを対応付けたテーブルである。
このEP_mapにより、Clip AVストリームから該当するデータを選択して読み出すことができる。また、EP_mapは、ランダムアクセスを行う場合に用いられる。例えば、ユーザが、操作入力部22に操作を入力して、Clipの中のアクセスポイントを、タイムスタンプ(PTS)で指定した場合、コントローラ21は、Clip AVストリームファイルの中でストリームのデコードを開始すべきアドレス情報を、EP_mapを参照して取得し、これに基づいて、ランダムアクセスを行うよう記録制御部28を制御する。なお、EP_mapの種類には、ビデオ用とオーディオ用がある。
図5は、オーディオ用EP_mapの構造を説明する図である。具体的には、図5のAは、Clip AVストリームにおけるプレゼンテーションタイムスタンプ(PTS)の位置を説明する図、図5のBは、図5のAに示すClip AVストリームの一部を拡大して示す図、図5のCは、オーディオ用EP_mapのデータ構造を示す図である。
オーディオ用EP_mapは、図5のCに示されるように、Clip AVストリームのプレゼンテーションタイムスタンプ(PTS)(PTS_EP_start)と、それに対応するソースパケット番号(TSパケットの番号)を示す情報(SPN_EP_start)とが記述されたテーブルである。
ここで、アドレスの表現として、ソースパケット番号(SPN: Source Packet Number)を使用することができる。このソースパケット番号(SPN)は、Clip AVストリーム内の全てのソースパケットに一連の番号を付したものである。ソースパケット番号SPNは、Clip AVストリームの中で、最初のソースパケットをソースパケット番号SPN=0(ゼロ)とし、その次のソースパケットのソースパケット番号SPN=1とし、以後、次のパケット毎にソースパケット番号SPNは1ずつ増加するものとする。従って、オーディオ用EP_mapのSPN_EP_startとしては、ソースパケット番号(SPN)が記述される。
次に、Clip information file(Clipインフォメーションファイル)について説明する。図6は、Clipインフォメーションファイルのシンタクスを示す図である。
zzzzz.clpi(Clip information fileファイル)は、図6に示すように5個のオブジェクトから構成される。それらは、ClipInfo()、SequenceInfo ()、ProgramInfo()、CPI()、およびClipMark()である。AVストリーム(Clip AVストリーム)とそれに対応するClip Informationファイルは、同じ数字列の"zzzzz"が使用される。
図6に示したzzzzz.clpi(Clip information fileファイル)のシンタクスについて説明するに、type_indicatorは、ファイルのタイプを示し、version_numberは、そのファイルのバージョンを示している。SequenceInfo_start_addressは、SequenceInfoのzzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、SequenceInfo()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。ProgramInfo_start_addressは、ProgramInfoのzzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、ProgramInfo()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。
CPI_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、CPI()の先頭アドレスを示す。ClipMark_Start_addressは、zzzzz.clpiファイルの先頭のバイトからの相対バイト数を単位として、ClipMark()の先頭アドレスを示す。相対バイト数はゼロからカウントされる。padding_word(パディングワード)は、zzzzz.clpiファイルのシンタクスにしたがって挿入される。N1,N2,N3,N4、およびN5は、ゼロまたは任意の正の整数でなければならない。それぞれのパディングワードは、任意の値がとられるようにしても良い。
次に、図6に示したzzzzz.clipのシンタクス内のCPI (Characteristic Point Information)について、図7を参照して説明する。CPIは、AVストリームの中の時間情報とそのファイルの中のアドレスとを関連づけるためにある。CPI()の中のCPI_typeが、図7に示されるように、EP_map typeの場合、そのCPI()はEP_mapを含む。なお、CPIのシンタクスについては、図12を参照して後述する。
図7においては、PlayListに、1つのPlayItemと1つのSubPlayItemが含まれている。すなわち、PlayListの中に、1つのPlayItemにより作られる再生パス(メインパス)と、1つのSubPlayItemにより作られる再生パス(サブパス)がエントリーされている。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。
ここで、メインパスとサブパスの構造を、図8を参照して説明する。
図8においては、メインパスが、異なるタイミングで再生されるオーディオの再生パスを、サブパスを使用して表している。メインパスのPlayItemが参照するメインAVストリームファイルは、例えば、上述した図7のPlayItemで参照されるClip AVストリームファイルである(図8では省略している)。
例えば、メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合、すなわち、ブラウザブルスライドショーを再生する場合に、このような構成が利用される。換言すれば、ユーザが、スライドショーの画像更新を再生装置(プレーヤ)へ指令したときに、BGMを途切れさせないで再生させる場合に利用される。
ここで、ブラウザブルスライドショーは、静止画の再生順序が決められており、各スライドの再生時間が有限、または、無限とされている。スライド再生時間が無限であるものが含まれている場合、ユーザが再生装置に、スライドの再生を次に進めるという指示をしない限り、次のスライドの再生には進まない。従って、それぞれのスライドの再生は時間軸上で予め決められた時刻に再生されない。また、ブラウザブルスライドショーにおいては、静止画像と同時に再生するオーディオは、サブパスのオーディオパスで参照されており、オーディオは静止画像の再生に同期しない。すなわち、静止画像とは非同期で再生される。
図8においては、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、1つのサブパスとを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。
また、Sub Pathは、Clip(Auxiliary audio stream)の中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。図8の例の場合、SubPlayItemによって、Clip(Auxiliary audio stream)が参照されている。また、メインパスが参照するAVストリームの(ビデオデータの)タイミングとオーディオの再生タイミングは関係なく、Main pathの時間軸上でSub Pathが再生を開始する時刻を指定する必要がないので、図8においては、SubPlayItemにsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれない。すなわち、単にMain Pathが参照するAVストリームとSub Pathが参照するオーディオストリームを合わせて再生する、という情報だけが設けられている。
なお、ここで、「AVストリームに含まれるビデオストリームのデータとサブパスにより参照されるオーディオストリームのデータの再生のタイミングとが異なる」と記載しているが、より詳細には、AVストリームに含まれるビデオストリームの再生のタイミングと、ビデオストリームの再生タイミングは合ってはいる(すなわち、ビデオストリームにオーディオストリームが関連付けられている)が、ビデオストリームの中の所定のフレームを再生中に、対応する音が再生される、という具体的な対応付けまでは行われていないことを示している。すなわち、ビデオストリームの再生タイミングと、オーディオストリームの再生タイミングが合っている上に、ビデオストリームの中の所定のフレームを再生中に、対応する音が再生される、という具体的な対応付けまで行われるのではなく、単に、ビデオストリームの再生タイミングと、オーディオストリームの再生タイミングが合っているが、具体的な対応付けまでは行われおらず、再生のタイミングは異なるものとされている。
次に、図8を用いて説明したメインパスとサブパスの構造を具体的に実現するためのデータ構造(シンタクス)を説明する。
図9は、PlayList()のシンタクスを示す図である。
lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図8の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図8に示されるように、PlayItem_id=0,1,2が割り振られる。
number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図8の例の場合、Sub Pathの数は1個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。
図10は、SubPath()のシンタクスを示す図である。
lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeについては、図11を参照して後述する。SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使うなどの、ブラウザブルスライドショーを再生する場合)に利用される。Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図8のSubPlayItemは1個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。
図11は、SubPath_type(サブパスのタイプ)の例を説明する図である。すなわち、SubPathの種類は、例えば、図11に示されるように定義されている。
図11において、SubPath_type=0,1は、reservedとされている。SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期であることを示している。すなわち、図8のSub Pathのタイプは、このSub Path_type=2とされる。
SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期であることを示している。
SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。
SubPath_type=5は、2nd Audio Presentation path(2番目のオーディオプレゼンテーションパス)(2ndオーディオストリームを参照するためのパス)とされている。具体的には、SubPath_type=5は、プレイリストの中において、サブパスで参照される2番目のオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)オーディオストリームは、映画に対する監督のコメント(音声)である。
SubPath_type=6は、2nd Video Presentation path(2番目のビデオプレゼンテーションパス)(2ndビデオストリームを参照するためのパス)とされている。具体的には、SubPath_type=6は、プレイリストの中において、サブパスで参照される2番目のビデオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)ビデオストリームは、映画に対する監督のコメント(動画像)である。
SubPath_type=7乃至255は、reservedとされている。
図12は、CPIのシンタクスを示す図である。図12に示したCPIのシンタクスを説明するに、lengthは、このlengthフィールドの直後からCPI()の最後までのCPI()のバイト数を示す32ビットの符号なし整数である。CPI_typeは、図13に示すように、4ビットのフラグであり、ClipのCPIのタイプを表す。
次に、図12に示したCPIのシンタクス内のEP_mapについて説明する。EP_mapには、2つのタイプがあり、それはビデオストリーム用のEP_mapとオーディオストリーム用のEP_mapである。EP_mapの中のEP_map_typeが、EP_mapのタイプを区別する。Clipが1つ以上のビデオストリームを含む場合、ビデオストリーム用のEP_mapが使用され、Clipがビデオストリームを含まず、1つ以上のオーディオストリームを含む場合、オーディオストリーム用のEP_mapが使用される。また、例えば、ブラウザブルスライドショーを再生する場合には、オーディオストリーム用のEP_mapが使用される。
オーディオストリーム用のEP_mapは、stream_PID、PTS_EP_start、およびSPN_EP_startというデータを持つ。stream_PIDは、オーディオストリームを伝送するトランスポートパケットのPIDを示す。PTS_EP_startは、オーディオストリームのアクセスユニットのPTSを示す。SPN_EP_startは、AVストリームの中で、PTS_EP_startで参照されるアクセスユニットの第1バイト目を含むソースパケットのアドレスを示す。より具体的には、PTS_EP_start は、オーディオストリームのアクセスユニットの33ビット精度のPTSを示し、SPN_EP_startAVストリームの中でPTS_EP_startにより参照されるアクセスユニットのオーディオフレームの第1バイト目を含むソースパケットの相対アドレスを示す。SPN_EP_startは、ソースパケット番号を単位とする大きさであり、AVストリームファイルの最初のソースパケットからカウントされる。
EP_map_for_one_stream_PID()と呼ばれるサブテーブルは、同じPIDを持つトランスポートパケットによって伝送されるオーディオストリーム毎に作られる。Clipの中に複数のオーディオストリームが存在する場合、EP_mapは複数のEP_map_for_one_stream_PID()を含んでも良い。
なお、EP_mapとSequenceInfoの関係を説明するに、1つのEP_map_for_one_stream_PID()は、STCの不連続点に関係なく1つのテーブルに作られる。図14に示されるように、SPN_EP_startの値とSequenceInfo ()において定義されるSPN_STC_startの値を比較する事により、それぞれのSTC_sequenceに属するEP_mapのデータの境界が分かる。EP_mapは、同じPIDで伝送される連続したストリームの範囲に対して、1つのEP_map_for_one_stream_PIDを持たねばならない。
次に、EP_map_for_one_stream_PID()について説明する。
本実施の形態では、EP_map_for_one_stream_PID()のテーブルのデータサイズを削減し、かつデータサーチのパフォーマンスを改善するために、EP_map_for_one_stream_PID()は、2つのサブテーブル、すなわち、EP_coarseとEP_fineに分けられる(図15参照)。
EP_fineエントリーと、EP_coarseエントリーは、共に同じPTS_EP_start、SPN_EP_startから生成される。EP_fineエントリーは、PTS_EP_start および SPN_EP_startのLSB(Least Significant Bit)側のビット情報を持つ(図16と図17を参照)。EP_coarseエントリーは、PTS_EP_start および SPN_EP_startのMSB(Most Significant Bit)側のビット情報とそれに対応するEP_fineのテーブル中のエントリー番号(同じPTS_EP_startから取り出したLSB側のビットを持つEP_fineテーブルの中のエントリー)を持つ。
図17に示されるように、PTS_EP_fineは、9乃至19ビット目まで用いており、PTS_EP_coarseは、19乃至32目まで用いられている。
EP_coarseサブテーブルの中のエントリー数は、EP_fineサブテーブルのエントリー数に比べてかなり小さい。次の場合に、EP_coarseのエントリーが作られる。
・最初のPTS_EP_fineのエントリー ・PTS_EP_fineの値がラップ・アラウンドした後の最初のPTS_EP_fineのエントリー ・RSPN_EP_fineの値がラップ・アラウンドした後の最初のRSPN_EP_fineのエントリー(図18参照)。
次に、EP_mapを使用する場合のAVストリームへのランダムアクセスの例について説明する。
あるPlayListのグローバルな時間軸上で30分後から、その再生を開始したいとする。
・最初にPlayListの中のグローバルな時間軸上でで30分後に対応するところ時刻を含むPlayItemのSTC-sequence-idを調べる。
・前記STC-sequenceのローカルな時間軸上で30分後に対応するところのPTSの値を導く。
・前記STC-sequenceのSPN_STC_startをSequenceInfoから導く。
・EP_coarse サブテーブルの中で、SPN_EP_coarseが、導いた前記SPN_STC_start以上であるところのエントリーから、データサーチが開始される。EP_coarse サブテーブルの中で、前記必要なPTSに最も近く、かつその値より時間的に前の値を持つPTS_EP_coarseのエントリーを見つける。
・EP_fineサブテーブルの中で、前記見つけたPTS_EP_coarseに対応するところのEP_fineのエントリー番号から、データサーチが開始される。前記必要なPTSに最も近く、かつその値より時間的に前の値を持つPTS_EP_fineを持つエントリーを見つける。
・前記必要なPTSのアクセスユニットの読み出し開始のためのSPN_EP_startは、前記見つけたPTS_EP_coarseに対応するSPN_EP_coarseのLSB 18ビットを前記見つけたPTS_EP_fineに対応するRSPN_EP_fineのビットで置きかえることにより決定される。
このようにして、PTS_EP_fineとPTS_EP_coarseとを用いることで、ランダムアクセス可能にするとともに、EP_map_for_one_stream_PID()のテーブルのデータサイズを削減するとともに、データサーチのパフォーマンスを向上させることができる。
上記説明したEP_mapのシンタクスを図19に示す。
number_of_stream_PID_entriesは、EP_mapの中でのEP_map_for_one_stream_PIDのエントリー数を示す。
stream_PID[k]は、EP_mapの中でk番目にエントリーされるEP_map_for_one_stream_PIDによって参照されるエレメンタリーストリームを伝送するところのトランスポートパケットのPIDの値を示す。
EP_stream_type[k] は、前記EP_map_for_one_stream_PIDのによって参照されるエレメンタリーストリームのタイプを示す。値の意味を図20の表に示す。
図20において、EP_stream_type[k]が1の場合、そのエレメンタリーストリームはビデオストリームである。
EP_stream_type[k]が3の場合、そのエレメンタリーストリームはオーディオストリームである。
図19に戻って、number_of_EP_coarse_entries[k] は、前記EP_map_for_one_stream_PIDの中にあるEP-coarseエントリーの数を示す。
number_of_EP_fine_entries[k] は、前記EP_map_for_one_stream_PIDの中にあるEP-fineエントリーの数を示す。
EP_map_for_one_stream_PID_start_address[k]は、EP_map()の中で前記EP_map_for_one_stream_PIDが始まる相対バイト位置を示す。この値は、EP_map()の第1バイト目からのバイト数で示される。
EP_map_for_one_stream_PIDのシンタクスを図21に示す。このシンタクスのセマンティクスを説明するために、EP_map_for_one_stream_PIDにストアされるデータの元となるところのPTS_EP_start とSPN_EP_startの意味について説明する。
PTS_EP_startとそれに関連付けられたSPN_EP_startは、AVストリーム上のエントリーポイントを指す。そして、PTS_EP_fineとそれに関連付けられたPTS_EP_coarseは、同一のPTS_EP_startから導かれる。また、SPN_EP_fineとそれに関連付けられたSPN_EP_coarseは同じSPN_EP_startから導かれる。PTS_EP_start とSPN_EP_startは次のように定義される。
PTS_EP_startは、33-bit長の符号なし整数である。PTS_EP_startの定義は、EP_map_for_one_stream_PIDに対するEP_stream_typeの値により異なる。
EP_stream_typeが1であるとき('video type1')、PTS_EP_startは、AVストリームの中でシーケンスヘッダから開始するビデオアクセスユニットの33ビット長のPTSを示す。
EP_stream_typeが3であるとき('audio')、PTS_EP_startは、AVストリームの中でシーケンスヘッダから開始するビデオアクセスユニットの33ビット長のPTSを示す。
SPN_EP_startは、32ビットの符号なし整数である。SPN_EP_startの定義はEP_map_for_one_stream_PIDに対するEP_stream_typeの値により異なる。
EP_stream_typeが1であるとき('video type1')、このフィールドはPTS_EP_start に関連付けられたビデオアクセスユニットの第1バイト目を含むソースパケットのAVストリームの中でのアドレスを示す。
EP_stream_typeが3であるとき('audio')、このフィールドはPTS_EP_start に関連付けられたPTS_EP_startにて参照しているPTSを含むオーディオPESパケットの第1バイト目を含むソースパケットのAVストリームの中でのアドレスを示す。
SPN_EP_startは、ソースパケット番号の単位で表され、それはAVストリームファイルの中の最初のソースパケットからゼロを初期値としてカウントされる。
EP_map_for_one_stream_PIDのセマンティクスを説明する。
EP_fine_table_start_addressは、最初のis_angle_change_pointの開始アドレスを示し、それはEP_map_for_one_stream_PID()の第1バイト目からの相対バイト数で表される。相対バイト数はゼロから開始する。
ref_to_EP_fine_idは、このフィールドに続くPTS_EP_coarseに関連づけられるところのPTS_EP_fineを持つEP_fineエントリーの番号を示す。PTS_EP_fineとそれに関連付けられるPTS_EP_coarseは、同じPTS_EP_startから導かれる。
ref_to_EP_fine_idは、EP_fine_idのfor-loopの中で記述される順番で定義されるところのEP_fine_idの値により与えられる。
PTS_EP_coarseとPTS_EP_fine、そしてSPN_EP_coarseとSPN_EP_fineは、次のように導かれる。
EP_fineサブテーブルに、Nf個のエントリーがあり、これらのエントリーはそれらに関連するSPN_EP_startの値の昇順に並んでいるとする。
それぞれのPTS_EP_fineエントリーは、そのPTS_EP_startから次のように導かれる。
PTS_EP_fine[EP_fine_id] = (PTS_EP_start[EP_fine_id] >> 9) % 211$
PTS_EP_coarse とそのPTS_EP_fineの関係は次のとおりである。
PTS_EP_coarse[i] = (PTS_EP_start[ref_to_EP_fine_id[i]] >> 19) % 214 TS_EP_fine[ref_to_EP_fine_id[i]] = (PTS_EP_start[ref_to_EP_fine_id[i]] >> 9) % 211$
それぞれのSPN_EP_fineエントリーは、そのSPN_EP_startから次のように導かれる。
SPN_EP_fine[EP_fine_id] = SPN_EP_start[EP_fine_id] % 217$
SPN_EP_coarse とその SPN_EP_fineの関係は次のとおりである。
SPN_EP_coarse[i] = SPN_EP_start[ref_to_EP_fine_id[i]] SPN_EP_fine[ref_to_EP_fine_id[i]] = SPN_EP_start[ref_to_EP_fine_id[i]] % 217$
EP_map_for_one_stream_PID()は次の制限を満たす。
・EP_map_for_one_stream_PID()の中でSPN_EP_coarseのエントリーは、SPN_EP_coarseの値の昇順で並んでいなければならない。
・EP_map_for_one_stream_PID()の中でSPN_EP_fineのエントリーは、それに関連するSPN_EP_startの値の昇順で並んでいなければならない。
・次の場合に、PTS_EP_coarseとSPN_EP_coarseのエントリーが作られる: ・・最初のPTS_EP_fineのエントリー ・・PTS_EP_fineの値がラップ・アラウンドした後の最初のPTS_EP_fineのエントリー ・・SPN_EP_fineの値がラップ・アラウンドした後の最初のSPN_EP_fineのエントリー。
ここで、図22を参照して、EP_stream_typeの制約を説明する。
EP_stream_typeが1である場合、すなわち、video type1である場合、I_end_position_offset(Iピクチャのエンドを示す値)が設けられており、その値は、001bto111bとされている。また、SPN_EP_startのエントリーポイントとして、シーケンスヘッダとIピクチャを有する位置(MPEG2ビデオストリームの場合)と、IまたはIDRピクチャを有する位置(MPEG4AVCビデオストリームの場合)としか、エントリーできないものとされている。
また、EP_stream_typeが3である場合、すなわち、audioである場合、I_end_position_offset(Iピクチャのエンドを示す値)は設けられないので、その値は、000bとされている。また、SPN_EP_startのエントリーポイントとして、オーディオのPESパケットしか、エントリーできないものとされている。
次に、図23を参照して、ClipInfo()について説明する。図23は、図6のClipインフォメーションファイルに含まれるClipInfo()のシンタクスを示す図である。ClipInfo()は、それに対応するAVストリームファイル(Clip AVストリーム)の属性情報をストアする。
図23に示されるように、ClipInfo()には、Clip_stream_typeや、application_typeのフィールドが含まれる。Clip_stream_typeの8ビットのフィールドは、Clip Informationファイルに対応するAVストリームのタイプを示す。また、application_typeは、ClipAVストリーム が保持しているアプリケーションのタイプを表す。ここで、application_typeについて、図24を参照して説明する。
図24において、application_type=1は、映画のアプリケーションのTS(トランスポートストリーム)であることを示している。Application_type=2は、静止画のスライドショーであり、再生時間軸に従って静止画が切り替わるアプリケーション(Time Based slide showとも称する)のTSであることを示している。Application_type=3は、静止画のスライドショーであり、ユーザ操作などにより静止画が切り替わるアプリケーション(ブラウザブルスライドショーとも称する)の静止画が記録されたTSであることを示している。Application_type=4は、ブラウザブルスライドショーのためのオーディオが記録されたサブTSであることを示している。なお、図24においては、「TS for a sub-path of Browsable slide show」と記載しているが、これは、ブラウザブルスライドショー用のオーディオのみではなく、オーディオパケットを含むTSからなるClipAVストリームを指定する値であるとする。Application_type=5は、サブパスのインタラクティブグラフィックスメニューのTSであることを示している。Application_type=6は、サブパスのテキストサブタイトル(テキスト字幕データ)のTSであることを示している。
application_typeが1,2,3、および4のうちのいずれかのタイプである場合、EP_mapが存在する。なお、Time Based Slide showおよびBrowsable Slide showは、EP_mapでは、その静止画を示すものとする。また、application_typeが5または6である場合、EP_mapが存在しない。また、application_typeが1,2、および3のうちのいずれかのタイプである場合は、ClipAVストリームに保持されているTSには、ビデオ又は静止画が含まれているため、そのEP_mapはビデオ用のEP_mapであり、application_typeが4である場合は、ClipAVストリームに保持されているTSには、オーディオが含まれているため、そのEP_mapはオーディオ用のEP_mapである。
すなわち、application_type=1,2、または、3である場合に、ビデオストリーム用のEP_mapが作成され、application_type=4である場合に、オーディオストリーム用のEP_mapが作成される。
このとき、application_type=1または4である場合、EP_mapの作成には、制約が設けられている。具体的には、EP_mapの2つのPTS_EP_fineの間隔が、1秒以下とされなければいけない、という制約が設けられている。
このように、Clipインフォメーションファイル(図6)の中の、Clip AV Stream に含まれるアプリケーションによって指定されるClipInfo()の中のapplication_typeによって、EP_mapを作成するか否かが決定され、EP_mapを作成する場合には、EP_stream_typeがビデオとオーディオのうちのいずれかであるかも、application_typeにより決定される。
次に、図24のClipインフォメーションファイル中のapplication_typeが4である場合、つまり、対応するClipAVストームファイルにオーディオストリームが保持され、EP_stream_typeが3である場合の、EP_mapの例を、図25を参照して説明する。Application_type=4のAVストリームは、図24を用いて説明したように、ブラウザブルスライドショーのSub_pathが参照するTSであることを示している。すなわち、ブラウザブルスライドショーでBGM(バックグランドミュージック)になるオーディオストリームであることを示している(なお、上述のように、オーディオのみを含むTSであることを示す場合にも使用される)。
図25において、ClipAVストリームは、オーディオストリームのTSパケットから構成される。このオーディオストリームは、1種類のオーディオエンコーダにより符号化され、さらにMPEG2の方式によって、TS(トランスポートストリーム)とされたものである。TSは、所定の大きさ(例えば、188バイト)の複数のTSパケットにより構成される。
SPN_EP_startは、ソースパケット(TSパケット)のエントリーポイントを示す情報であり、図25においては、SPN_EP_startの矢印が示すTSパケットの位置が、SPN_EP_startにより示されている。このSPN_EP_startは、図14のEP_map_for_one_stream_PID()のSPN_EP_startに対応している。
ここで、ClipAVストリームファイルに格納されている複数のTSパケットは、複数のPES(Packetized Elementarty Stream)パケットを含んでいる。そのため、複数のTSパケット(図25の例においては、7個のTSパケット)からは、図25に示されるように、PESパケット(図25の例においては、3個のPESパケット)を抜き出すことができる。図25のPESパケットは、ソースパケットのエントリーポイントとされているTSパケットを含む複数のTSパケットから抜き出されたPESパケットである。より詳細には、図25のPESパケットの先頭のデータは、ソースパケットのエントリーポイントとされたTSパケットに含まれているものとされる。
PESパケットは、PESヘッダ(PES header)と、PESペイロード(PES payload)により構成されている。PESヘッダには、PTS(プレゼンテーションタイムスタンプ)が含まれている。ここで、EP_stream_type=3である場合、すなわち、オーディオストリームである場合、PTS_EP_startは、PESパケットのPTS値を表している。すなわち、SPN_EP_startは、PTS_EP_startによって参照されているPESパケットの第1バイトを含んだTSパケットのソースパケット番号とされる。すなわち、図14のEP_map_for_one_stream_PID()のSPN_EP_startとPTS_EP_startとが、図25のSPN_EP_startとPTS_EP_startとに対応している。
PESパケットのPESペイロードには、複数のオーディオアクセスユニット(Audio AU)が含まれている。図25の例の場合、各オーディオアクセスユニットの大きさは固定である。すなわち、ClipAVストリームファイルに格納されているオーディオストリームは、オーディオが、固定長符号化方式のオーディオエンコーダによって符号化されて得られたオーディオストリームである。
ここで、TSに含まれるオーディオストリームについて説明する。図25に示されるように、オーディオとして、固定長符号化方式のオーディオエンコーダによって符号化されて得られたオーディオストリームのみがTSパケットに格納される場合もあれば、固定長符号化方式のオーディオエンコーダと、可変長符号化方式のオーディオエンコーダとによりそれぞれ符号化された2種類のオーディオストリームがTSパケットに格納される場合もある。すなわち、異なる2つの符号化方式のオーディオエンコーダにそれぞれエンコードされて生成された2種類のオーディオストリームが、TSに含まれる場合もある。
図26は、図24のapplication_typeが4である場合、つまり、EP_stream_typeが3である場合であって、固定長符号化方式のオーディオエンコーダのみにより符号化されて得られたオーディオストリームがTSパケットに格納されている場合と、異なる2つの符号化方式のオーディオエンコーダによって符号化されて得られた2つのオーディオストリームがTSパケットに格納されている場合との差異を説明する図である。
図26において、上段は、application_type=4のAVストリームで、1種類のオーディオストリームのみが含まれる場合のTSを示している。下段は、application_type=4のAVストリームで、2種類のオーディオストリームが含まれる場合のTSを示している。すなわち、異なる符号化方式によりそれぞれエンコードされた2種類のオーディオストリームが含まれる場合のTSを示している。なお、以下において、固定長符号化方式のオーディオエンコーダにより符号化されて得られたオーディオストリームを、BSオーディオES(基本オーディオエレメンタリストリーム)と称し、可変長符号化方式のオーディオエンコーダにより符号化されて得られたオーディオストリームを、HQオーディオES(高品質オーディオエレメンタリストリーム)と称する。また、BSオーディオESがTSパケット化されたものを、BSオーディオTSパケットと称し、HQオーディオESがTSパケット化されたものを、HQオーディオTSパケットと称する。
すなわち、図26の上段のTSには、オーディオとして、BSオーディオESが含まれ、このTSは、複数のBSオーディオTSパケットからなる。また、図26の下段のTSには、オーディオとして、BSオーディオESとHQオーディオESとが含まれ、このTSは、複数のBSオーディオTSパケットと、複数のHQオーディオTSパケットとからなる。
ここで、EP_mapのエントリーポイントの制約について説明する。上段のTSの場合、すなわち、BSオーディオTSパケットからなるTSの場合には、特に制約が設けられない。下段のTSの場合、すなわち、BSオーディオTSパケットとHQオーディオTSパケットからなるTSの場合には、後述する制約を満たし、かつ、BSオーディオTSパケットのみがEP_mapのエントリーポイントとなり得る。すなわち、EP_mapのエントリーポイントには、BSオーディオTSパケットのみがなり得、HQオーディオTSパケットはなり得ない。
次に、図27を参照して、オーディオデータが順次処理されてTSストリームになるまでの流れを簡単に説明する。
入力されたオーディオデータは、2種類の異なる符号化方式により符号化された結果、BSオーディオES171とHQオーディオES181となる。BSオーディオES171は、n個(nは任意の自然数)のオーディオアクセスユニット(BS(1)、BS(2)、BS(3)、・・・、BS(n))により構成されており、HQオーディオES181は、m個(mは任意の自然数)のオーディオアクセスユニット(HQ(1)、HQ(2)、HQ(3)、・・・、HQ(m))により構成されている。
BSオーディオES171とHQオーディオES181に対しては、次に、PESパケット化の処理が実行される。すなわち、BSオーディオES171がPESパケット化されてBSオーディオPES172が生成されるとともに、HQオーディオES181がPESパケット化されてHQオーディオPES182とされる。図27において、BSオーディオPES172は、PESヘッダとPESペイロード(図中、BS(1)、BS(2)、・・・、BS(n')と記述されている)とからなるPESパケットにより構成されている(n'は任意の自然数)。また、HQオーディオPES182は、PESヘッダとPESペイロード(図中、HQ(1)、HQ(2)、・・・、BS(m')と記述されている)とからなるBSオーディオPESパケットにより構成されている(m'は任意の自然数)。
このPESパケット化をする場合の制約として、BSオーディオPES172のPTS値とHQオーディオPES182のPTS値が同じになるPESパケットが1秒以内に必ず存在するようにPESパケット化をしなければならないという制約がある。ここでは、PESヘッダ201−1とPESペイロード(図中、BS(1)と記述されている)201−2からなるBSオーディオPESパケット201と、PESヘッダ211−1とPESペイロード(図中、HQ(1)と記述されている)211−2からなるHQオーディオPESパケット211との間で、互いにPTS(PESヘッダ201−1の中のPTSと、PESヘッダ211−1の中のPTS)の値が等しい。このようなPTSが同じであるPESパケットが、PTSを時間に変換(演算)した場合に、1秒以内に必ず存在するように、PESパケット化が行われる。すなわち、BSオーディオPESパケットのPTSと同一のPTSを有するHQオーディオPESパケットが、1秒以内に存在するように、PESパケット化が行われる。なお、図1の記録装置1においては、PESパケット化部26が、この制約に基づいてPESパケット化するものとされる。
このとき、BSオーディオPES172のPTS値と同じPTSの値を有するHQオーディオES181のPESパケットの構造と、TSパケットの構造を、図28を参照して説明する。
HQオーディオES181の場合においても、PESパケット化された場合のPESパケットは、図25のBSオーディオESと同様に、PESヘッダとPESペイロードから構成される。PESヘッダには、PTS_DTS_flags、PTS、およびその他のデータが含まれている。
PTS_DTS_flagsは、PTSとDTS(Decoding Time Stamp)の有無を示す情報である。PTS_DTS_flagsの値が「00(b)」である場合、PTSとDTSのフィールドがPESヘッダに存在しないことを示し、PTS_DTS_flagsの値が「10(b)」である場合、PTSのフィールドのみがPESヘッダに存在することを示し、PTS_DTS_flagsの値が「11(b)」である場合、PTSとDTSのフィールドがPESヘッダに存在することを示す。図28の例の場合、PTS_DTS_flagsの値は、PTS_DTS_flags=10(b)とされており、PESヘッダに、PTSの値のみが存在し、DTSの値は存在しないことを示している。図28の例の場合、PTSの値は、BSオーディオPESパケットに格納されているPTS(すなわち、図25のPTS(PTS_EP_start))と同じ値とされている。
PESペイロードには、図28の例の場合、4個のオーディオアクセスユニット(AU)が含まれている。オーディオアクセスユニットは、高品質(高品位)オーディオであり、PESペイロードの先頭のオーディオアクセスユニットには、その位置からデコードが開始可能となるデコード情報(以下においては、詳細情報とも称する)が含まれている。すなわち、詳細情報とは、その位置からデコードを開始するための情報である。このデコードが開始可能となる情報(詳細情報)には、例えば、サンプリング周波数、およびチャンネル情報などが含まれる。また、デコードが開始可能となる情報(詳細情報)は、全てのアクセスユニットに挿入されているわけではない。このように、BSオーディオPESのPTSと同じPTSを有するHQオーディオPESパケットのオーディオアクセスユニット(PESペイロードの中のオーディオアクセスユニット)には、その場所からデコードを開始するための情報が含まれている。
図27に戻って、BSオーディオPES172とHQオーディオPES182に対しては、次に、TSパケット化の処理が実行される。すなわち、BSオーディオPES172がTSパケット化されてBSオーディオTS173が生成されるとともに、HQオーディオPES182がTSパケット化されてHQオーディオTS183とされる。なお、このとき、上述したBSオーディオPES172の先頭のPESパケット201のPESヘッダ201−1とPESペイロード201−2のデータは、BSオーディオTS172の1番目と2番目に位置するTSパケット231−1と231−2とに格納される。より詳細には、TSパケット231−1と231−2のTSペイロードの部分に、PESヘッダ201−1とPESペイロード201−2のデータが格納される。また、同様にして、上述したHQオーディオPES182の先頭のPESパケット211のPESヘッダ211−1とPESペイロード211−2のデータは、HQオーディオTS182の1番目と2番目に位置するTSパケット232−1と232−2とに格納される。より詳細には、TSパケット232−1と232−2のTSペイロードの部分に、PESヘッダ211−1とPESペイロード211−2のデータが格納される。
次に、BSオーディオTS173とHQオーディオTS183に対しては、多重化の処理が実行される。すなわち、BSオーディオTS173とHQオーディオTS183とが多重化されて、トランスポートストリーム(TS)190が生成される。TS(MPEG2-TS)190は、PAT(Program Association Table)に対応するTSパケット221およびPMT(Program Map Table)に対応するTSパケット222、BSオーディオTS231−1乃至231−j(jは任意の自然数)、並びに、HQオーディオTS232−1乃至232−k(kは任意の自然数)を含むように構成されている。
この多重化をする場合の制約としては、同一のPTS値を有するBSオーディオTSパケットと、HQオーディオTSパケットの関係は、必ずHQオーディオTSパケットがBSオーディオTSパケットよりも後ろにくるように多重化するものとする。例えば、BSオーディオのTSパケット231−1と231−2の後に、HQオーディオのTSパケット232−1と232−2とが配置されるように多重化しなければならない。すなわち、同一のPTS値を有するPESパケットとPESペイロードが格納されているTSパケットについて、BSオーディオESの後に、HQオーディオESのTSパケットが配置されるような制約が設けられている。
この周期としては、例えば、BSオーディオES171のオーディオアクセスユニット5個分の再生時間と、HQオーディオES181のオーディオアクセスユニット192個分の再生時間が等しい場合、BSオーディオES171のオーディオアクセスユニット5個分(すなわち、HQオーディオES181のオーディオアクセスユニット192個分)の周期で同じPTSを有するアクセスユニットが存在することになる。なお、図1の記録装置1においては、TSパケット化部27が、この制約に基づいて多重化するものとされる。
ここで、図29を参照して、図27のBSオーディオTS173とHQオーディオTS183を多重化する場合(TS190とする場合)の制約を満たす例を2つ説明する。
BSオーディオTS173とHQオーディオTS183をTS190に多重化する場合の制約は、同一のPTS値を有するBSオーディオTSパケットと、HQオーディオTSパケットの関係は、必ずHQオーディオTSパケットがBSオーディオTSパケットよりも後ろにくるように多重化しなければならないという制約である。
1番目のパケットの配置の例を図29の上段を用いて説明する。図29の上段は、BSオーディオTSパケット261−1と、HQオーディオTSパケット271−1のPTSの値が共にPTS#1である場合に、BSオーディオTSパケット261−1の後に、HQオーディオTSパケット271−1が配置されている。すなわち、PTSの値が同じ(ともにPTS#1)であるTSパケットについて、HQオーディオTSパケット271−1より前に、BSオーディオTSパケット261−1が配置されている。また、BSオーディオTSパケット261−2と、HQオーディオTSパケット271−2のPTSの値が共にPTS#2である場合に、BSオーディオTSパケット261−2の後に、HQオーディオTSパケット271−2が配置されている。すなわち、PTSの値が同じ(ともにPTS#2)であるTSパケットについて、HQオーディオTSパケット271−2より前に、BSオーディオTSパケット261−2が配置されている。
このとき、上述したように、PTSが同じであるPESパケットは、PTSを時間に変換(演算)した場合に、1秒以内に必ず存在するようにPESパケット化されているので、PTS#1からPTS#2までを時間に換算した場合、その時間は1秒以内とされる。すなわち、図30に示されるように、((PTS#2)−(PTS#1))は、1秒以内とされる。
次に、2番目のパケットの配置の例を図29の下段を用いて説明する。図29の下段は、BSオーディオTSパケット261−1と、HQオーディオTSパケット271−1のPTSの値が共にPTS#1である場合に、BSオーディオTSパケット261−1の後に、HQオーディオTSパケット271−1が配置されている。すなわち、PTSの値が同じ(ともにPTS#1)であるTSパケットについて、HQオーディオTSパケット271−1より前に、BSオーディオTSパケット261−1が配置されている。また、BSオーディオTSパケット261−2と、HQオーディオTSパケット271−2のPTSの値が共にPTS#2である場合に、BSオーディオTSパケット261−2の後に、HQオーディオTSパケット271−2が配置されている。すなわち、PTSの値が同じ(ともにPTS#2)であるTSパケットについて、HQオーディオTSパケット271−2より前に、BSオーディオTSパケット261−2が配置されている。
図29の下段のTSは、上段とは異なり、BSオーディオTSパケット261−2の後に、HQオーディオTSパケット271−1が配置されている。すなわち、PTS#1であるHQオーディオTSパケット271−1より前に、PTS#2であるBSオーディオTSパケット261−2が配置されている。しかしながら、制約としては、同じPTSを含むTSパケットにおいて、BSオーディオTSパケットの後にHQオーディオTSパケットが配置されればよいので、図29の下段のTSにおいても、この制約は守られていることになる。
このように、BSオーディオTSパケットのPTSの値と同じPTSの値を有するHQオーディオTSパケットは、BSオーディオTSパケットよりも後ろに存在すればよく、図29の下段に示されるように、PTS#2を有するBSオーディオTSパケット261−2より、PTS#1を有するHQオーディオTSパケット271−1が後に存在しても、制約は満たしていることになる。
なお、図29の下段においても、PTSが同じであるPESパケットは、PTSを時間に変換(演算)した場合に、1秒以内に必ず存在するようにPESパケット化されているので、PTS#1からPTS#2までを時間に換算した場合、その時間は1秒以内とされる。このように、多重化することにより、例えばジャンプ再生を行った場合においても、すぐに再生が可能となる。
このような制約に基づいて、BSオーディオTS173とHQオーディオTS183とが多重化され、TS190(図27)が生成される。生成されたTS190とEP_mapの例を、図31を用いて説明する。図31は、図25とは異なり、BSオーディオTS173とHQオーディオTS183を多重化した場合のTSのEP_mapの例を示している。すなわち、図25では、オーディオとして、BSオーディオTS173のみ(1種類のオーディオES)が含まれていたが、図31では、オーディオとして、BSオーディオTS173とHQオーディオTS183という2種類のオーディオESが含まれている。
図31においても、図25と同様に、application_type(図24)は4である。つまり、図31は、ランダム、早送り、早戻し等の際のアクセスのためのEP_MAPのタイプ、すなわち、EP_stream_typeが3である場合の、EP_mapの例を示している。application_type=4のAVストリームは、図24を用いて説明したように、ブラウザブルスライドショーが保持されたストリームと共に再生されるオーディオ、又はビデオと共に再生される、オーディオストリームである。さらに、このAVストリームは、Sub_pathが参照するTSである。
図31において、ClipAVストリームは、BSオーディオESとHQオーディオESのTSパケットから構成される。すなわち、ClipAVストリームには、2種類のオーディオエンコーダにより符号化され、さらにMPEG2の方式によって、TS(トランスポートストリーム)とされたものが含まれている。TSは、所定の大きさ(例えば、188バイト)の複数のTSパケットにより構成される。
BSオーディオTSとHQオーディオTSからなるTSの場合、BSオーディオTSパケットの(さらに中のPESパケットの)PTSの値と同じPTSの値を有するHQオーディオTSパケットが、BSオーディオTSパケットより後ろに存在する場合、BSオーディオTSパケットが、エントリーポイントとなり得る。
SPN_EP_startは、ソースパケット(TSパケット)のエントリーポイントを示す情報であり、図31においては、SPN_EP_startの矢印が示すBSオーディオTSパケット261−1の位置が、SPN_EP_startにより示されている。図31のTSにおいて、SPN_EP_startにより示されるTSパケットから順番に、BSオーディオTSパケット261−1,261−2、HQオーディオTSパケット271−1乃至271−4が配置されている。なお、SPN_EP_startは、図14のEP_map_for_one_stream_PID()のSPN_EP_startに対応している。
ここで、ClipAVストリームファイルに格納されている複数のTSパケットは、複数のPES(Packetized Elementarty Stream)パケットを含んでいる。そのため、複数のTSパケット(図31の例においては、7個のTSパケット)からは、図31に示されるように、PESパケット(図31の例においては、3個のPESパケット)を抜き出すことができる。図31のPESパケットは、ソースパケットのエントリーポイントとされているTSパケットを含む複数のTSパケットから抜き出されたPESパケットである。より詳細には、図31のPESパケットの先頭のデータは、ソースパケットのエントリーポイントとされたTSパケットに含まれているものとされる。この例の場合、ソースパケットのエントリーポイントとされているTSパケットを含むTSパケット261−1,261−2,271−1乃至271−4から抜き出されたPESパケットは、PESパケット301乃至303とされている。PESパケット301乃至303は、それぞれ、PESヘッダとPESペイロードにより構成されている。
PESパケット301は、BSオーディオESをPESパケット化したものであり、PESパケット302と303は、HQオーディオESをPESパケット化したものである。PESパケット301は、PESヘッダ301−1とPESペイロード301−2により構成され、PESパケット302は、PESヘッダ302−1とPESペイロード302−2により構成され、PESパケット303は、PESヘッダ303−1とPESペイロード303−2により構成される。このとき、PESパケット301のPESペイロード301−2には、BSオーディオESのデータが格納され、PESパケット302と303のPESペイロード302−2と303−2とには、HQオーディオESのデータが格納される。
ここで、先頭のPESパケット301のPESヘッダ301−1に格納されているPTSは、PTS_EP_start(PESパケットのPTS値)とされている。すなわち、SPN_EP_startは、PTS_EP_startによって参照されているPESパケット301の第1バイトを含んだTSパケット261−1のソースパケット番号とされる。すなわち、図14のEP_map_for_one_stream_PID()のSPN_EP_startとPTS_EP_startとが、図31のSPN_EP_startとPTS_EP_startとに対応している。
PESパケット301のPESペイロード301−2には、BSオーディオESである複数のオーディオアクセスユニット(BS Audio AU)が含まれている。図31の例の場合、BSオーディオESは固定長符号化方式によりエンコードされたものであるので、各オーディオアクセスユニットの大きさは固定である。PESパケット302のPESペイロード302−2には、HQオーディオESである複数のオーディオアクセスユニット(HQ Audio AU)が含まれている。図31の例の場合、HQオーディオESは可変長符号化方式によりエンコードされたものであるので、各オーディオアクセスユニットの大きさは可変である。ここで、PESパケット302のPESヘッダ302−1に含まれるPTSの値(PTS_EP_startで示されるBSオーディオTSパケット261−1から取得されたPTSの値)と、PESパケット301のPESヘッダ301−1に含まれるPTSの値は同一とされる。PESパケット303のPESペイロード303−2には、HQオーディオESである複数のオーディオアクセスユニットが含まれている。図31の例の場合、HQオーディオESは可変長符号化方式によりエンコードされたものであるので、各オーディオアクセスユニットの大きさは可変である。
このように、PTS_EP_startはPESパケットのPTSの値を表し、SPN_EP_startはPTS_EP_startによって参照されているPESパケット301の第1バイトを含んだTSパケット261−1のソースパケット番号となる。
次に、図32のフローチャートを参照して、光ディスク11に記録されているClip AVストリームファイルに関連するClip Informationファイルを作成し、記録する処理を説明する。この処理は、他の記録装置または記録装置1によって、光ディスク11にClipAVストリームファイルが記録されている状態で開始される。すなわち、図27乃至図31を用いて説明した、BSオーディオTSパケットとHQオーディオTSパケットからなるTS(上述した制約を満たすTS)がファイル化されたClipAVストリームファイルが記録されている光ディスク11が、図1の記録装置1に装着されている状態で開始される。
ステップS11において、記録制御部28は、光ディスク11に記録されているClipAVストリームファイルを読み出し、これをコントローラ21に供給する。
ステップS12において、コントローラ21は、ClipAVストリームファイルについてのClipInfoを作成する。具体的には、コントローラ21は、図6を用いて上述したClipインフォメーションファイルのシンタクスで示されるClipInfo()を作成する。
ステップS13において、コントローラ21は、ClipAVストリームファイルについてのSequenceInfoを作成する。具体的には、コントローラ21は、図6を用いて上述したClipインフォメーションファイルのシンタクスで示されるSequenceInfo()を作成する。
ステップS14において、コントローラ21は、ClipAVストリームファイルについてのProgramInfoを作成する。具体的には、コントローラ21は、図6を用いて上述したClipインフォメーションファイルのシンタクスで示されるProgramInfo()を作成する。
ステップS15において、コントローラ21は、ClipAVストリームファイルについてのCPI (EP-map)を作成する。具体的には、コントローラ21は、図6を用いて上述したClipインフォメーションファイルのシンタクスのCPI()に含まれる図12のEP_mapを作成する。なお、この処理の詳細は、図34を参照して後述する。
ステップS16において、コントローラ21は、ClipAVストリームファイルについてのClipMarkを作成する。具体的には、コントローラ21は、図6を用いて上述したClipインフォメーションファイルのシンタクスで示されるClipMark()を作成する。
ステップS17において、コントローラ21は、ClipInfo()、SequenceInfo()、ProgramInfo()、CPI()、およびClipMark()がストアされたClip Informationファイルを記録する。
図32の処理により、ClipAVストリームファイルに基づいて、Clipインフォメーションファイルを作成し、記録することができる。
なお、図32では各処理を時系列に説明したが、ステップS12乃至ステップS16の処理は、実際には同時に動作するものである。なお、この例は、個別の光ディスク11に対して記録する例であるが、Clip AV ストリームファイル及び、Clip インフォメーションファイルのデータをハードディスク等の記録媒体に保持し、このデータをマザーディスク作成装置に入力してマザーディスクを作成する。更にこのマザーディスクに基づき、スタンパを形成し、このスタンパにより光ディスクを製造するとしてもよい。
また、図32の例では、あらかじめ光ディスク11にClipAVストリームファイルが記録されていることを前提として、Clipインフォメーションファイルの作成について説明したが、ClipAVストリームファイルの記録とClipインフォメーションファイルの記録とを、1つの記録装置1が連続して実行するようにしてもよい。この場合の例を、図33のフローチャートを参照して説明する。
図33は、Clip AVストリームファイルとそれに関連するClip Informationファイルの記録処理を説明するフローチャートである。この処理は、例えば、図1の記録装置1の電源がオンされ、ユーザによりAVストリームの記録が指令されたとき開始される。勿論、記録装置1には、光ディスク11が装着されている。
ステップS21において、記録装置1は、ClipAVストリームファイルを作成して記録する。具体的には、記録装置1のデータ取得部23は、AVデータを外部から取得し、AVエンコーダ24に供給するとともに、コントローラ21に、AVデータが取得されたことを通知する。AVエンコーダ24は、供給されたAVデータを、コントローラ21の制御に基づいてエンコードし、バッファ25に供給する。より詳細には、図2の第1のオーディオエンコーダ24−1と第2のオーディオエンコーダ24−2が、それぞれオーディオデータをエンコードし、ビデオエンコーダ24−3が、ビデオデータをエンコードし、その結果得られたBSオーディオES、HQオーディオES、およびビデオESが、バッファ25に供給される。バッファ25は、供給されたエンコードされたAVデータ(BSオーディオES、HQオーディオES、およびビデオES)を一時保持する。そして、PESパケット化部26は、コントローラ21からの制御に従って、エンコードされたAVデータ(BSオーディオES、HQオーディオES、およびビデオES)をPESパケット化し、TSパケット化部27に供給する。TSパケット化部27は、PESパケットストリームを取得し、これをTSパケット化するとともに多重化し、多重化して得られたMPEG2-TSを、記録制御部28に供給する。記録制御部28は、受け取ったMPEG2-TSをファイル化することで、Clip AVストリームファイルを作成し、光ディスク11に記録させる。なお、このとき、ClipAVストリームファイルに含まれるTSは、図27を用いて上述した制約を満たしているものとされる。この処理により、光ディスク11には、図32のステップS11で読み出されるClipインフォメーションファイルが記録されたことになる。
なお、以下のステップS22乃至ステップS27の処理については、基本的に図32の処理と同様であるので、簡単に説明していく。
ステップS22において、コントローラ21は、ステップS21の処理で光ディスク11に記録されたClipAVストリームファイルについてのClipInfoを作成する。ステップS23において、コントローラ21は、ステップS21の処理で光ディスク11に記録されたClipAVストリームファイルについてのSequenceInfoを作成する。ステップS24において、コントローラ21は、ステップS21の処理で光ディスク11に記録されたClipAVストリームファイルについてのProgramInfoを作成する。ステップS25において、コントローラ21は、ステップS21の処理で光ディスク11に記録されたClipAVストリームファイルについてのCPI (EP-map)を作成する。ステップS26において、コントローラ21は、ステップS21の処理で光ディスク11に記録に記録されたClipAVストリームファイルについてのClipMarkを作成する。ステップS27において、コントローラ21は、生成されたClipInfo()、SequenceInfo()、ProgramInfo()、CPI()、およびClipMark()がストアされたClip Informationファイルを記録する。
図33の処理により、ClipAVストリームファイルとともに、Clipインフォメーションファイルを作成し、記録することができる。
なお、図33も図32と同様に、各処理を時系列に説明したが、ステップS11からステップS16は、実際には同時に動作するものである。
次に、図34のフローチャートを参照して、図32のステップS15と図33のステップS25のEP-mapの作成処理の詳細を説明する。なお、この処理は、図31を用いて上述したようなTSが記録されている光ディスク11、又はハードディスクが、図1の記録装置1に装着されている状態で開始される。すなわち、図27を用いて説明した制約に基づいて生成された、BSオーディオESとHQオーディオESからなるTS190が記録されている光ディスク11が記録装置1に装着されている状態で開始される。例えば、図32のステップS11の処理が終了した後、または、図33のステップS21の処理が終了した後に実行される。
ステップS51において、記録制御部28は、光ディスク11に記録されているClipインフォメーションファイルを読み出し、BSオーディオESとHQオーディオESからなるTSの入力を受け付ける。TSは、上述したように、図27や図31に示される構成を有しており、HQオーディオESのTSパケットと、HQオーディオESのTSパケットにより構成されている。入力を受け付けたTSは、複数のTSパケットにより構成されているので、TSパケットを順次コントローラ21に供給する。
ステップS52において、コントローラ21は、記録制御部28から供給されたTSパケットを取得し、このTSパケットがBSオーディオESのTSパケットであるか否かを判定する。TSパケットは、図31に示されるように、BSオーディオTSパケット261−1(BSオーディオESのTSパケット)、または、HQオーディオTSパケット271−1(HQオーディオESのTSパケット)であるので、コントローラ21は、取得したTSパケットが、BSオーディオESのTSパケット(BSオーディオTSパケットであるか否かを判定する。各TSパケットのヘッダには、そのTSパケットがBSオーディオESのTSパケットであるかHQオーディオESのTSパケットであるかを識別するためのtransport_priorityフラグ(tpフラグ)が付されているので、コントローラ21は、このTSパケットのヘッダに付されているtpフラグに基づいてこれを判定する。例えば、tpフラグが1である場合、コントローラ21は、そのTSパケットがBSオーディオESのTSパケットであると判定する。
ステップS52において、BSオーディオESのTSパケットではないと判定された場合、処理はステップS52に戻り、それ以降の処理が繰り返される。すなわち、BSオーディオESのTSパケットである場合に、ステップS52以降の処理が実行される。
ステップS52において、BSオーディオESのTSパケットであると判定された場合、処理はステップS53に進み、コントローラ21は、TSパケットのペイロードからPESパケットのPTSの値を取得する。ここで、TSパケットはTSヘッダとTSペイロードからなり、PESパケットのデータは、TSペイロードに格納されている。そのため、例えば、図31のTSパケット261−1のTSペイロードにはPESヘッダ301−1が含まれているので、コントローラ21は、PESヘッダ301−1に格納されているPTSの値を取得する。例えば、コントローラ21は、PTSの値としてPTS#1を取得する。
なお、複数のTSパケットから1つのPESパケットが構成されるので、対象となるTSパケットにPESヘッダが含まれていない場合もあり得る。そのため、例えば、TSパケットのペイロードに、PESヘッダが含まれておらず、PESペイロードしか含まれていない場合、処理はステップS52に戻り、次のTSパケットが取得され、それ以降の処理が繰り返される。
ステップS54において、コントローラ21は、取得したPTS(例えば、PTS#1)と同じPTSの値を有するHQオーディオESのPESパケットを含んだTSパケットが、TSの後ろに存在し、かつ、先頭アクセスユニットが詳細情報のヘッダを含んでいるか否かを判定する。まず、コントローラ21は、例えば、ステップS53の処理で取得したPTS#1と同じPTSの値を有するHQオーディオESのPESパケットを含んだTSパケットが、TSの後ろ(すなわち、TSにおいて、ステップS52の処理で取得したTSパケットより後ろ)に存在するかを判定する。換言すれば、コントローラ21は、PTS#1を取得したBSオーディオESのTSパケットより、TSにおいて後ろの位置に、PTS#1を有するHQオーディオESのTSパケットが存在するか否かを判定する。そして、次に、上記の判定がYESである場合(PTS#1を取得したBSオーディオESのTSパケットより、TSにおいて後ろの位置に、PTS#1を有するHQオーディオESのTSパケットが存在する場合)に、さらに、そのPTS#1を有するHQオーディオTSパケットのPESペイロード302−2(より詳細には、PESペイロード302−2のヘッダ)に、詳細情報(図28のデコード開始可能な情報)を含んでいるか否かを判定する。すなわち、コントローラ21は、図29を用いて上述した配置が満たされており、さらに、一致するとされるPTSを有するHQオーディオTSパケットから抜き出されたPESペイロードに、詳細情報(図28のデコード開始可能な情報)が含まれているか否かを判定する。
ステップS54において、取得したPTS(例えば、PTS#1)と同じPTSの値を有するHQオーディオESのPESパケットを含んだTSパケットが、TSの後ろに存在しないと判定された場合、または、先頭アクセスユニットが詳細情報のヘッダを含んでいないと判定された場合、処理はステップS52に戻り、それ以降の処理が繰り返される。すなわち、この2つの条件を両方とも満たしていなければ、処理はステップS52に戻る。いずれの条件も満たされている場合(YESである場合)、処理をステップS55に進める。
ステップS54において、取得したPTS(例えば、PTS#1)と同じPTSの値を有するHQオーディオESのPESパケットを含んだTSパケットが、TSの後ろに存在し、かつ、先頭アクセスユニットが詳細情報のヘッダを含んでいると判定された場合、ステップS55において、コントローラ21は、現在のTSパケットを、エントリーポイントとする。例えば、コントローラ21は、図31のTSパケット261−1を、エントリーポイントとする。すなわち、PTSの値が一致する場合であって、一致するPTSを有するBSオーディオTSパケットよりHQオーディオTSパケットの方が後に配置され、HQオーディオTSパケットから取得したPESペイロードに、詳細情報が含まれている場合に、そのBSオーディオTSパケットがエントリーポイントとされる。
このように、エントリーポイントとされるPTSと同じPTSのHQオーディオTSパケットに、詳細情報を含めるようにすることで、HQオーディオを再生する場合に、詳細情報をすぐ取得することができるので、迅速に再生を行うことができる。また、BSオーディオのみを再生する装置でも、エントリーポイントで指定されるTSパケットには、BSオーディオのPESパケットヘッダを有するため、この装置にとっても迅速な再生が可能であることは言うまでも無い。
ステップS56において、コントローラ21は、BSオーディオESとHQオーディオESのPIDと、TSパケットの番号、および、ステップS53の処理で取得したPTSの値に基づいて、EP_mapを作成する。なお、PIDは、上述したように、TSパケット化されるときに付加され、BSオーディオESとHQオーディオESのPIDは同一とされている(例えば、PID=a0)。そのため、例えば、コントローラ21は、PID=a0、TSパケットの番号(図31のBSオーディオTSパケット261−1のソースパケット番号)、および、PTS#1に基づいて、EP_mapを作成する。
具体的な例を、図19のEP_mapのシンタクスを用いて説明する。ステップS56の処理のPIDに基づいて、number_of_stream_PID_entries、stream_PID[k]が生成される。stream_PID[k]は、EP_mapの中でk番目にエントリーされるEP_map_for_one_stream_PIDによって参照されるエレメンタリーストリームを伝送するところのトランスポートパケットのPIDの値を示す。EP_stream_type[k] は、3(オーディオ)とされる(図20参照)。そして、ステップS56の処理のTSパケットの番号とPTSの値に基づいて、number_of_EP_coarse_entries[k]、number_of_EP_fine_entries[k]、EP_map_for_one_stream_PID_start_address[k]が生成される。図21のEP_map_for_one_stream_PIDのシンタクスを参照すると分かるように、EP_map_for_one_stream_PIDにストアされるデータの元は、PTS_EP_start とSPN_EP_startであるので、ステップS56の処理のTSパケットの番号、すなわち、エントリーポイントのソースパケット番号に基づいて、EP_map_for_one_stream_PIDにストアされるデータが作成される。
ステップS57において、コントローラ21は、現在処理しているTPパケットが、最後のTSパケットであるか否かを判定する。最後のTSパケットではない、すなわち、まだ対象としていないTSパケットが残っていると判定された場合には、処理はステップS52に戻り、それ以降の処理が繰り返される。すなわち、最後のTSパケットを処理し終えるまで処理は繰り返される。ステップS57において、現在処理しているTSパケットが、最後のTSパケットであると判定された場合、処理を終了する。
図34の処理により、EP_mapを生成することができる。
次に、図31などの処理により光ディスク11に記録されたClipAVストリームファイルとClipインフォメーションファイル(Clip)を再生する場合について説明する。図35は、光ディスク11に記録されたデータを再生する再生装置341の構成例を示すブロック図である。
コントローラ351は、操作入力部352により入力されるユーザの操作入力などに基づいて、予め用意されている制御プログラムを実行するか、または、再生制御部354を制御して光ディスク11に記録されている制御プログラムを読み出し、メモリ353に展開して実行することで、再生装置341の全体の動作を制御する。例えば、コントローラ351は、光ディスク311が装着されたとき、所定のメニュー画面を外部の表示装置に表示させることができる。
操作入力部352は、例えば、ボタン、キー、タッチパネル、ジョグダイヤル、マウスなどの入力デバイスや、所定のリモートコマンダから送信される赤外線などの信号を受信する受信部により構成され、ユーザの操作入力を取得し、コントローラ351に供給する。
メモリ353は、コントローラ351が各種の処理を実行する上において必要なデータなどを適宜記憶する。
再生制御部354は、コントローラ351による制御にしたがって、光ディスク11からデータを読み出し、読み出したデータを、コントローラ351、メモリ353、または、AVデコーダ356に供給するためにバッファ355に出力する。光ディスク11から読み出された情報が、制御プログラムや制御情報、または、Clipインフォメーションファイル(EP_map)などであった場合、再生制御部354により読み出された情報は、コントローラ351、または、メモリ353に出力される。光ディスク11から読み出された情報が、AVストリームファイルなどのAVデータであった場合、再生制御部354により読み出された情報は、AVデコーダ356に供給するためにバッファ355に出力される。
バッファ355は、再生制御部354により光ディスク11から読み出されたAVストリームなどのAVデータを一時バッファリングし、AVデコーダ356に供給する。なお、実際には、このAVストリームはTSにより構成されているので、コントローラ351は、TSからPESを取得し、さらに、ESを取得する。このESには、BSオーディオES、HQオーディオES、およびビデオESが含まれている。
AVデコーダ356は、再生制御部354から供給されるAVストリームなどのAVデータをデコードし、得られたビデオ信号とオーディオ信号を外部の表示装置に出力する。具体的には、このAVストリームには、エンコードされているBSオーディオES、HQオーディオES、およびビデオESが含まれている。
AVデコーダ356は、例えば、図36に示されるように、第1の符号化方式によりエンコードされたオーディオESをデコードする第1のオーディオデコーダ356−1と、ビデオESをデコードするビデオデコーダ356−3とを有するAVデコーダの場合もあれば、図37に示されるように、第2の符号化方式によりエンコードされたオーディオESをデコードする第2のオーディオデコーダ356−2と、ビデオESをデコードするビデオデコーダ356−3とを有するAVデコーダの場合もある。
すなわち、図36のAVデコーダ356では、オーディオとしては、BSオーディオESのみをデコードすることができ、HQオーディオESはデコードすることができない。図37のAVデコーダ356では、オーディオとしてHQオーディオESをデコードすることができる。なお、図37のAVデコーダ356は、第1のオーディオデコーダ356−1より高性能である第2のオーディオデコーダ356−2を有しているので、もちろん、BSオーディオESをデコードすることもできるが、より高性能のものを再生するのが一般的であるので、ここでは、図37のAVデコーダ356が、HQオーディオESをデコードの対象とするものとして説明する。
図35に戻って、表示装置においては、デコーダ356によりデコードされたデータ(ビデオデータとオーディオデータ)に基づいて、例えば、光ディスク11に記録されているコンテンツの出力(映像の表示、音声の出力)が行われる。
また、コントローラ351には、必要に応じてドライブ357も接続されており、ドライブ357には、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVDを含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア30が装着される。
次に、図34の処理で作成された(図32のステップS15または図33のステップS25の処理で作成され、記録された)EP_mapを使用して特殊再生を行う方法を説明する。EP_mapは、ランダムアクセス再生をするために役立つ。
ディジタル放送のトランスポートストリームの中では、オーディオPIDが変化する場合があるので、AVデコーダ(図35の再生装置341のAVデコーダ356)は記録されているトランスポートストリームの中のPIDマッピングを知る必要がある。そのために、EP_mapはEP_map_for_one_stream_PID()と呼ばれるサブテーブル毎にそれが参照するオーディオPIDの値を持ち、また、ProgramInfoはPIDマッピングについての情報を持つ。
図38は、BSオーディオESに対するランダムアクセス再生処理を説明するフローチャートである。この処理は、例えば、図36のAVデコーダ356を有する図35の再生装置341が、これまでの処理により光ディスク11に記録されたClip(ClipAVストリームファイルとClipインフォメーションファイル)を再生する場合に実行される処理である。すなわち、再生装置341が、BSオーディオESとビデオESのみに対応する場合(HQオーディオESには対応していない場合)に実行される処理である。また、ランダムアクセス再生、すなわち、光ディスク11に記録されたClipAVストリームファイルを先頭から再生するのではなく、ユーザの指令した再生位置から再生を開始する処理である。なお、この処理は、Clipが記録された光ディスク11が、図35の再生装置341(図36のAVデコーダ356を有する再生装置)に装着された場合に開始される。
ステップS111において、再生制御部354は、コントローラ351からの制御に基づいて、光ディスク11に記録されているBSオーディオESとHQオーディオESとを含むClipからEP_mapを取得する。再生制御部354は、取得したEP_mapを、コントローラ351に供給する。
ステップS112において、操作入力部352は、ユーザからのランダムアクセス再生の指令を受け付ける。操作入力部352は、受け付けた指令に対応する信号を、コントローラ351に供給する。例えば、ユーザは、ランダムアクセス再生の指令として、再生位置(エントリーポイント)を時刻(このAVストリーム上の再生時刻)で指令するので、操作入力部352は、受け付けたエントリーポイントの時刻に対応する信号を、コントローラ351に供給する。エントリーポイントは、図34を用いて上述したように、所定のBSオーディオTSパケットに対して設定されている。コントローラ351は、操作入力部352から供給された時刻に対応する信号に基づいて、所定の演算を行い、PTSを求める。すなわち、コントローラ351は、ユーザにより指定された時刻(AVストリーム上の時刻)を、PTSに変換することが可能である。
ステップS113において、コントローラ351は、取得したEP_mapに基づいて、受け付けたエントリーポイントのソースパケット番号とPTS値を取得する。詳細には、ユーザにより指定された時刻に基づいたPTSと、EP_MAPに基づいたPTSとの比較により、EP_MAPで保持されているPTSのうち、再生すべきPTSを特定し、その特定されたPTSに対応するソースパケット番号を特定する。例えば、図31において、SPN_EP_startで示される位置、すなわち再生が開始されるソースパケット番号がエントリーポイントとして特定された場合は、(すなわち、コントローラ351が、エントリーポイントのソースパケット番号として、SPN_EP_start(すなわち、BSオーディオTSパケット261−1の番号)であるSPN#1を特定した場合)、BSオーディオTSパケット261−1を含むTSパケット(TSパケットのTSペイロードの部分)が特定されたことになる。
ステップS114において、コントローラ351は、BSオーディオESとHQオーディオESとを含むClipの読み出し位置を、取得したソースパケット番号とする。例えば、コントローラ351は、取得したソースパケット番号SPN#1(SPN_EP_start)を、光ディスク11のClipの読み出し位置とする。このとき、エントリーポイントは、図34を用いて上述したように、BSオーディオTSパケットのみに設定可能であるので、光ディスク11の読み出し位置は、BSオーディオTSパケットに設定されている。
ステップS115において、再生制御部354は、コントローラ351からの制御に基づいて、そのソースパケット番号を有するBSオーディオESのTSパケットを読み出し、AVデコーダ356に供給する。例えば、再生制御部354は、ソースパケット番号SPN#1を有するBSオーディオESのTSパケットを読み出し、図36のAVデコーダ356に供給する。
ステップS116において、AVデコーダ356は、供給されたBSオーディオESのTSパケットからデコードを開始する。すなわち、ソースパケット番号SPN#1を有するBSオーディオTSパケット261−1(図31)から再生が開始される。AVデコーダ356は、図36のような構成を有し、BSオーディオESをデコードすることができるので、BSオーディオESのTSパケットが順次読み出され、デコードされて出力される。以後のTSパケットは、一般的な再生と同様であるのでその詳細な説明は省略するが、順次BSオーディオTSパケットのみがピックアップされて、デコードされる。なお、ビデオESが静止画の場合で、ブラウザブルスライドショーの場合では、ユーザからの指令に基づいて、順次、静止画が切り替えられるだけであるので、ユーザからの指令に基づいて、順次デコードが行われ、出力される。また、通常のビデオの場合には、一般的なビデオ再生と同様である。
図38の処理により、BSオーディオESに対応する図36のAVデコーダ356を有する再生装置341(図35)は、EP_mapを参照することで、ユーザからのランダムアクセス再生の指令に基づいて、BSオーディオESのランダムアクセス再生を行うことができる。
次に、図39のフローチャートを参照して、HQオーディオESに対するランダムアクセス再生処理を説明する。この処理は、例えば、図37のAVデコーダ356を有する図35の再生装置341が、これまでの処理により光ディスク11に記録されたClip(ClipAVストリームファイルとClipインフォメーションファイル)を再生する場合に実行される処理である。すなわち、再生装置341が、HQオーディオESとビデオESに対応する場合に実行される処理である。また、ランダムアクセス再生、すなわち、光ディスク11に記録されたClipAVストリームファイルを先頭から再生するのではなく、ユーザの指令した再生位置から再生を開始する処理である。なお、この処理は、Clipが記録された光ディスク11が、図35の再生装置341(図37のAVデコーダ356を有する再生装置)に装着された場合に開始される。
ステップS151において、再生制御部354は、コントローラ351からの制御に基づいて、光ディスク11に記録されているBSオーディオESとHQオーディオESとを含むClipからEP_mapを取得する。再生制御部354は、取得したEP_mapを、コントローラ351に供給する。
ステップS152において、操作入力部352は、ユーザからのランダムアクセス再生の指令を受け付ける。操作入力部352は、受け付けた指令に対応する信号を、コントローラ351に供給する。例えば、ユーザは、ランダムアクセス再生の指令として、再生位置(エントリーポイント)を時刻で指令するので、操作入力部352は、受け付けたエントリーポイントの時刻に対応する信号を、コントローラ351に供給する。エントリーポイントは、図34を用いて上述したように、所定のBSオーディオTSパケットに対して設定されている。すなわち、この再生装置341は、図37のAVデコーダ356を有しており、HQオーディオESに対応しているので、例えば、図31の例の場合、HQオーディオTSパケット271−1からの再生が要求されるが、ここで取得されたのは、BSオーディオTSパケット261−1のエントリーポイントである。そのため、以降の処理で、最適なHQオーディオTSパケットに読み出し位置を設定する必要がある。なお、ユーザは、ランダムアクセスの再生位置として、PTSを時間(再生時間)に直したものを指定することもできる。
ステップS153において、コントローラ351は、取得したEP_mapに基づいて、受け付けたエントリーポイントのソースパケット番号とPTS値を取得する。詳細には、ユーザにより指定された時刻に基づいたPTSと、EP_MAPに基づいたPTSとの比較により、EP_MAPで保持されているPTSのうち、再生すべきPTSを特定し、その特定されたPTSに対応するソースパケット番号を特定する。例えば、図31において、SPN_EP_startで示される位置がエントリーポイントとして特定された場合は、(すなわち、コントローラ351が、エントリーポイントのソースパケット番号として、SPN_EP_start(すなわち、BSオーディオTSパケット261−1の番号)であるSPN#1を特定した場合)、BSオーディオTSパケット261−1を含むTSパケットが特定されたことになる。なお、ユーザ操作は、時刻位置を直接指定するものであっても良いし、早送り、早戻し等の操作で、直接時間を指定せず、ユーザ操作に基づいて再生装置が対応する時刻情報を算出するものであっても良い。また、本願発明とは関係が無いため説明を簡略したが、上述したようにSTC-sequenceにも基づいてアクセス位置を制御する再生を行う場合もある。
ステップS154において、コントローラ351は、BSオーディオESとHQオーディオESとを含むClipの読み出し位置を、取得したソースパケット番号とする。例えば、コントローラ351は、取得したソースパケット番号SPN#1(SPN_EP_start)を、光ディスク11のClipの読み出し位置とする。このとき、エントリーポイントは、図34を用いて上述したように、BSオーディオTSパケットのみに設定可能であるので、光ディスク11の読み出し位置は、BSオーディオTSパケットに設定されている。
ステップS155において、再生制御部354は、コントローラ351からの制御に基づいて、現在の読み出し位置から光ディスク11を読み出し、読み出し位置の後ろ(記録時間としての後ろ)に、最初に記録されているHQオーディオTSパケットを取得する。例えば、図31の例において、BSオーディオTSパケット261−1に読み出し位置が設定されている場合、再生制御部354は、ソースパケット番号が、BSオーディオTSパケット261−1(SPN#1)より後であり、最初のHQオーディオTSパケットであるHQオーディオTSパケット271−1を取得する。再生制御部354は、取得したHQオーディオTSパケット271−1を、コントローラ351に供給する。すなわち、再生装置は、PIDに基づいてBSオーディオパケット、HQオーディオパケットを取得すると共に、transport_priorityフラグに基づいて、最初のBSオーディオパケットは破棄し、その後に出てくるHQオーディオパケットを取得する。
ステップS156において、コントローラ351は、取得したHQオーディオTSパケットのTSペイロードに含まれるPTSヘッダのPTS値が、取得したPTSの値と一致するか否かを判定する。図31の例の場合、コントローラ351は、取得したHQオーディオTSパケット271−1のTSペイロードに含まれるPTSヘッダ302−1のPTS値が、ステップS153の処理で取得したPTS値(PTS#1)と一致するか否かを判定する。取得されたHQオーディオTSパケットに対応するPTS値と、ステップS153の処理で取得されたPTS値が一致しないと判定された場合、処理はステップS155に戻り、それ以降の処理が繰り返される。例えば、いま読み出されたHQオーディオTSパケット271−1よりさらに後ろの位置に記録されている(ソースパケット番号が後ろである)HQオーディオTSパケット271−2が取得され、その取得されたHQオーディオTSパケット271−2について、ステップS156の判定が行われる。なお、複数のTSパケットから1つのPESパケットが構成されるので、対象となるHQオーディオTSパケットにPESヘッダが含まれていない場合もあり得る。そのため、例えば、HQオーディオTSパケットのペイロードに、PESヘッダが含まれておらず、PESペイロードしか含まれていない場合、処理はステップS155に戻り、次のHQオーディオTSパケットが取得され、それ以降の処理が繰り返される。
ステップS156において、取得されたHQオーディオTSパケットに対応するPTS値と、ステップS153の処理で取得されたPTS値が一致すると判定された場合、コントローラ351は、そのHQオーディオTSパケットを、新たな読み出し位置とする。そして、ステップS157に進み、再生制御部354は、コントローラ351からの制御に基づいて、PTS値が一致するとされたHQオーディオTSパケットを読み出し、図37のAVデコーダ356に供給する。すなわち、取得したHQオーディオTSパケット271−1に対応するPTS値と、ステップS153の処理で取得されたPTS値が一致する場合、そのBSオーディオTSパケット261−1とHQオーディオTSパケット271−1は、同じ再生時刻に対応している。そのため、再生制御部354は、PTS値が一致すると判定されたそのHQオーディオTSパケット271−1の位置から、再生を開始する。
ステップS158において、AVデコーダ356は、供給されたHQオーディオTSパケット271−1からデコードを開始する。すなわち、再生する位置として指定されたエントリーポイントのBSオーディオTSパケット261−1(図31)と同じPTS#1を有するHQオーディオTSパケット271−1から、再生が開始される。AVデコーダ356は、図37のような構成を有し、HQオーディオESをデコードすることができるので、HQオーディオESのTSパケットが順次読み出され、デコードされて出力される。以後のTSパケットは、一般的な再生と同様であるのでその詳細な説明は省略するが、順次HQオーディオTSパケットのみがピックアップされて、デコードされる。なお、ビデオESについては、ブラウザブルスライドショーでは、ユーザからの指令に基づいて、順次、静止画が切り替えられるだけであるので、ユーザからの指令に基づいて、順次デコードが行われ、出力される。
図34のステップS54とステップS55の処理で上述したように、エントリーポイントのBSオーディオTSパケットと同じPTSを有するHQオーディオTSパケットには、詳細情報、すなわち、その位置からデコード開始となる情報が含まれるようにEP_mapを作成するようにしたので、AVデコーダ356は、供給されたHQオーディオTSパケットからデコードをすることができ、もって、迅速に再生をすることができる。もし、詳細情報が、そのHQオーディオTSパケットに含まれていない場合、詳細情報を含むHQオーディオTSパケットを探さなければならず、迅速なHQオーディオESの再生を行うことができないが、本実施の形態では、BSオーディオTSパケットのPTSと同じPTS値を有するHQオーディオTSパケットが詳細情報を有している場合に、エントリーポイントとするようにしたので(図34の処理)、HQオーディオESを迅速に再生することができる。さらに、BSオーディオと、HQオーディオはそれぞれ音質においては異なるが、データ内容としては同様のものであり、このように同様のコンテンツであるBSオーディオ、及び、HQオーディオのそれぞれのEP_MAPをClip インフォメーションファイルにおいて保持する必要はなく、記録媒体上のデータ量の簡素化、データ構造の簡素が図れる。
図39の処理により、HQオーディオESに対応する図37のAVデコーダ356を有する再生装置341(図35)は、EP_mapを参照することで、ユーザからのランダムアクセス再生の指令に基づいて、HQオーディオESのランダムアクセス再生を行うことができる。
このように、光ディスク11に記録されるClipAVストリームファイルのオーディオが、BSオーディオTSパケットとHQオーディオTSパケットにより多重化されたTSである場合であっても、図34を用いて上述した処理によりEP_mapを作成するようにしたので、EP_mapに基づいて、ランダムアクセス再生をすることが可能となる。
以上により、異なる符号化方式によりエンコードされたオーディオデータが、TSパケット化されて多重化され、AVストリームとして光ディスクに記録される場合に、エントリーポイントとして設定可能な一方のオーディオストリームのTSパケット(BSオーディオESのTSパケット)のPTSと同じPTS値を有するHQオーディオTSパケットがあり、TSにおいて、そのPTS値を含むBSオーディオTSパケットよりHQオーディオTSパケットの方が後ろの位置とされるとき、そのBSオーディオTSパケットをエントリーポイントとするように設定し、EP_mapを作成するようにしたので、ユーザにより指定された位置に対応するHQオーディオESを再生する場合であっても、エントリーポイントのBSオーディオTSパケットのPTSと同じPTSを有するHQオーディオTSを読み出すことができ、HQオーディオESのランダムアクセス再生をすることが可能となる。
また、BSオーディオTSパケットとHQオーディオTSパケットが同じPTSを有し、BSオーディオTSパケットよりHQオーディオTSパケットの方が後ろに配置されているとともに、さらに、HQオーディオTSパケットに詳細情報が記録されている場合に、エントリーポイントを設定するようにしたので、エントリーポイントのBSオーディオTSパケットのPTSと同じPTSを有するHQオーディオTSに、必ず詳細情報が記録されていることになり、その位置から、HQオーディオESを迅速に再生することができる。
なお、以上の例では、記録装置1(図1)が光ディスク11に記録したり、再生装置341(図35)が光ディスク11に記録された情報を再生したりするものとして記載したが、本発明は、光ディスク11に限らず、ハードディスクなどの記録媒体に記録したり、記録媒体に記録された情報を再生したりする場合についても適用することができる。
なお、以上の例では、主にブラウザブルスライドショーの場合のオーディオストリームを再生する場合に用いられるEP_mapについて説明したが、これに限らず、オーディオストリームに用いられるEP_mapであれば、本発明を適用することができる。例えば、光ディスク11に記録されているビデオストリームと同期して再生するオーディオストリームを、ネットワークや他の記録媒体からダウンロードするなどして取得し、再生する場合、ユーザにより指定されたPTSに対応するオーディオストリームのソースパケット番号は、光ディスク11に記録されているビデオストリームのEP_mapには対応していないので、このような場合には、光ディスク11に記録されているビデオストリーム用のEP_mapとは別に、オーディオストリーム用のEP_mapが用いられる(すなわち、オーディオストリームとともにオーディオストリーム用のEP_mapがダウンロードされる)。このような場合についても、上述したように、オーディオストリーム用のEP_mapを作成することで、光ディスク11に記録されているビデオストリームと、ダウンロードされたオーディオストリームとを同期して再生することができるとともに、そのオーディオストリームが、異なる2つの符号化方式によりエンコードされてTSパケット化されて多重化されていた場合であっても、ランダムアクセス再生を実現することができる。従って、「記録媒体」という用語は、光ディスク等の一つの「記録媒体」に記録されている場合だけでなく、光ディスク、ハードディスクと複数の記録媒体に分かれている場合も含んで良いことは明らかである。
なお、本実施の形態においては、記録装置1(図1)と再生装置341(図35)とを別々の装置として記載したが、これらが一体となった記録再生装置に適用することもできる。その場合、上述した記録処理や再生処理は、全て記録再生装置によって実行されることになる。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行することもできる。この場合、そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
この記録媒体は、図1および図35に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア30などにより構成される。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。

Claims (17)

  1. オーディオデータに基づく処理を実行する記録装置において、
    所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付手段と、前記受付手段により受け付けられた前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得手段と、
    前記トランスポートストリームにおいて、前記取得手段により前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在するか否かを判定する判定手段と、
    前記判定手段により、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在すると判定された場合、前記第1の時刻情報が取得された前記第1のTSパケットをエントリーポイントとして設定する設定手段と、
    ストリームを識別する情報、前記設定手段により前記エントリーポイントとして設定された前記第1のTSパケットの番号、および前記第1の時刻情報とに基づいて、テーブルを作成する作成手段と、
    前記作成手段により作成された前記テーブルを記録媒体に記録させる記録制御手段と
    を備えることを特徴とする記録装置。
  2. 前記判定手段は、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットに含まれるオーディオアクセスユニットの先頭に、その位置からデコードを開始するためのデコード情報が含まれているか否かをさらに判定し、
    前記設定手段は、
    前記判定手段により、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在すると判定された場合、かつ、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットに含まれるオーディオアクセスユニットの先頭に、その位置からデコードするのに必要なデコード情報が含まれていると判定されたとき、前記第1の時刻情報が取得された前記第1のTSパケットをエントリーポイントとして設定する
    ことを特徴とする請求項1に記載の記録装置。
  3. 前記テーブルは、前記トランスポートストリーム中の時刻情報と、前記トランスポートストリームのTSパケットの番号とを対応付けるテーブルである
    ことを特徴とする請求項1に記載の記録装置。
  4. 前記テーブルは、EP_mapである
    ことを特徴とする請求項1に記載の記録装置。
  5. 前記時刻情報は、プレゼンテーションタイムスタンプである
    ことを特徴とする請求項1に記載の記録装置。
  6. 前記記録制御手段により前記記録媒体に記録された情報を読み出す読み出し手段と、
    前記読み出し手段による読み出し位置を制御する制御手段と
    をさらに備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、前記読み出し手段の読み出し位置を制御し、
    前記読み出し手段は、前記制御手段による読み出し位置の制御に基づいて、前記記録媒体から前記トランスポートストリームを読み出す
    ことを特徴とする請求項1に記載の記録装置。
  7. 前記記録制御手段により前記記録媒体に記録された情報を読み出す読み出し手段と、
    前記読み出し手段による読み出し位置を制御する制御手段と
    前記第1の符号化方式によりエンコードされた前記オーディオデータをデコードするデコード手段と
    をさらに備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、対応する前記第1のTSパケットの番号を、読み出し位置として設定し、
    前記読み出し手段は、前記制御手段により設定された前記第1のTSパケットの番号から前記トランスポートストリームに含まれる前記第1のTSパケットを読み出し、
    前記デコード手段は、前記読み出し手段により読み出された前記第1のTSパケットに含まれる、前記第1の符号化方式によりエンコードされた前記オーディオデータをデコードする
    ことを特徴とする請求項1に記載の記録装置。
  8. 前記記録制御手段により前記記録媒体に記録された情報を読み出す読み出し手段と、
    前記読み出し手段による読み出し位置を制御する制御手段と
    前記第2の符号化方式によりエンコードされた前記オーディオデータをデコードするデコード手段と
    をさらに備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、対応する前記第1のTSパケットの番号を、読み出し位置として設定し、
    前記読み出し手段は、前記制御手段により設定された前記第1のTSパケットの番号より後ろの位置に記録されている前記第2のTSパケットを読み出し、
    前記制御手段は、前記読み出し手段により読み出された前記第2のTSパケットに含まれる前記時刻情報が、前記読み出し位置として設定された前記第1のTSパケットに含まれる前記時刻情報と一致する場合に、その第2のTSパケットの番号を、読み出し位置としてさらに設定し、
    前記読み出し手段は、前記制御手段により設定された前記第2のTSパケットの番号から前記トランスポートストリームに含まれる前記第2のTSパケットを読み出し、
    前記デコード手段は、前記読み出し手段により読み出された前記第2のTSパケットに含まれる、前記第2の符号化方式によりエンコードされた前記オーディオデータをデコードする
    ことを特徴とする請求項1に記載の記録装置。
  9. オーディオデータに基づく処理を実行する記録装置の記録方法において、
    所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付ステップと、
    前記受付ステップの処理により受け付けられた前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得ステップと、
    前記トランスポートストリームにおいて、前記取得ステップの処理により前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在するか否かを判定する判定ステップと、
    前記判定ステップの処理により、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在すると判定された場合、前記第1の時刻情報が取得された前記第1のTSパケットをエントリーポイントとして設定する設定ステップと、
    ストリームを識別する情報、前記設定ステップの処理により前記エントリーポイントとして設定された前記第1のTSパケットの番号、および前記第1の時刻情報とに基づいて、テーブルを作成する作成ステップと、
    前記作成ステップの処理により作成された前記テーブルを記録媒体に記録させる記録制御ステップと
    を含むことを特徴とする記録方法。
  10. オーディオデータに基づく処理を実行するプログラムであって、
    所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームの入力を受け付ける受付ステップと、
    前記受付ステップの処理により受け付けられた前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報を、第1の時刻情報として取得する取得ステップと、
    前記トランスポートストリームにおいて、前記取得ステップの処理により前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在するか否かを判定する判定ステップと、
    前記判定ステップの処理により、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在すると判定された場合、前記第1の時刻情報が取得された前記第1のTSパケットをエントリーポイントとして設定する設定ステップと、
    ストリームを識別する情報、前記設定ステップの処理により前記エントリーポイントとして設定された前記第1のTSパケットの番号、および前記第1の時刻情報とに基づいて、テーブルを作成する作成ステップと、
    前記作成ステップの処理により作成された前記テーブルを記録媒体に記録させる記録制御ステップと
    を含む処理をコンピュータに実行させることを特徴とするプログラム。
  11. 記録媒体に記録されたデータを再生する再生装置において、
    前記データは、所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、
    前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、前記第1の時刻情報が取得された前記第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている前記記録媒体に記録された情報を読み出す読み出し手段と、
    前記読み出し手段による読み出し位置を制御する制御手段と
    を備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、前記読み出し手段の読み出し位置を制御し、
    前記読み出し手段は、前記制御手段による読み出し位置の制御に基づいて、前記記録媒体から前記トランスポートストリームを読み出す
    ことを特徴とする再生装置。
  12. 前記第1の符号化方式によりエンコードされた前記オーディオデータをデコードするデコード手段をさらに備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、対応する前記第1のTSパケットの番号を、読み出し位置として設定し、
    前記読み出し手段は、前記制御手段により設定された前記第1のTSパケットの番号から前記トランスポートストリームに含まれる前記第1のTSパケットを読み出し、
    前記デコード手段は、前記読み出し手段により読み出された前記第1のTSパケットに含まれる、前記第1の符号化方式によりエンコードされた前記オーディオデータをデコードする
    ことを特徴とする請求項11に記載の再生装置。
  13. 前記第2の符号化方式によりエンコードされた前記オーディオデータをデコードするデコード手段をさらに備え、
    前記読み出し手段は、前記記録媒体から前記テーブルを読み出し、
    前記制御手段は、前記テーブルと、ユーザからの再生位置の指定とに基づいて、対応する前記第1のTSパケットの番号を、読み出し位置として設定し、
    前記読み出し手段は、前記制御手段により設定された前記第1のTSパケットの番号より後ろの位置に記録されている前記第2のTSパケットを読み出し、
    前記制御手段は、前記読み出し手段により読み出された前記第2のTSパケットに含まれる前記時刻情報が、前記読み出し位置として設定された前記第1のTSパケットに含まれる前記時刻情報と一致する場合に、その第2のTSパケットの番号を、読み出し位置としてさらに設定し、
    前記読み出し手段は、前記制御手段により設定された前記第2のTSパケットの番号から前記トランスポートストリームに含まれる前記第2のTSパケットを読み出し、
    前記デコード手段は、前記読み出し手段により読み出された前記第2のTSパケットに含まれる、前記第2の符号化方式によりエンコードされた前記オーディオデータをデコードする
    ことを特徴とする請求項11に記載の再生装置。
  14. 記録媒体に記録されたデータを再生する再生装置の再生方法において、
    前記データは、所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、
    前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、前記第1の時刻情報が取得された前記第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている前記記録媒体から前記テーブルを読み出す第1の読み出しステップと、
    前記テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し位置を制御する制御ステップと、
    前記制御ステップの処理による読み出し位置の制御に基づいて、前記記録媒体から前記トランスポートストリームを読み出す第2の読み出しステップと
    を含むことを特徴とする再生方法。
  15. 記録媒体に記録されたデータを再生するプログラムであって、
    前記データは、所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、
    前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、前記第1の時刻情報が取得された前記第1のTSパケットの番号とに基づいて作成されたテーブルとが記録されている前記記録媒体から前記テーブルを読み出す第1の読み出しステップと、
    前記テーブルと、ユーザからの再生位置の指定とに基づいて、読み出し位置を制御する制御ステップと、
    前記制御ステップの処理による読み出し位置の制御に基づいて、前記記録媒体から前記トランスポートストリームを読み出す第2の読み出しステップと
    を含む処理をコンピュータに実行させることを特徴とするプログラム。
  16. オーディオデータに関するデータが記録されている記録媒体であって、
    前記データは、所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、
    前記トランスポートストリームの第1のTSパケットに含まれる、デコードされる場合に利用される時刻情報である第1の時刻情報と、前記第1の時刻情報が取得された前記第1のTSパケットより後ろの位置に、前記第1の時刻情報と同じ時刻を表す前記時刻情報を含む第2のTSパケットが存在する場合に、ストリームを識別する情報と、前記第1の時刻情報が取得された前記第1のTSパケットの番号とに基づいて作成されたテーブルと
    が記録されていることを特徴とする記録媒体。
  17. 記録媒体に記録されたデータを再生する再生方法において、
    前記データは、所定の符号化方式である第1の符号化方式でエンコードされた前記オーディオデータがTS(Transport Stream)パケット化された第1のTSパケットと、可変長符号化方式であり、前記第1の符号化方式とは異なる第2の符号化方式でエンコードされた前記オーディオデータがTSパケット化された第2のTSパケットとが多重化されたトランスポートストリームを含み、
    再生すべき第1の時刻情報を取得し、
    前記第1のTSパケットに対する前記記録媒体上の位置情報と、前記第1のTSパケットのデコードの際に利用される第2の時刻情報との対応情報を保持するテーブルを読み出し、
    前記第1の時刻情報に基づいて、前記テーブルに保持された前記第2の時刻情報を特定し、
    前記テーブルに基づいて特定された前記第2の時刻情報に対応する位置情報を取得し、
    前記位置情報における前記第1のTSパケットが記録された記録位置から前記データの読み出しを開始し、
    前記データの読み出し開始位置から後方に多重化されている前記第2のTSパケットを取得し、
    読み出された前記第1のTSパケットのデコードは行わずに、取得された前記第2のTSパケットのデコードを開始する
    ことを特徴とする再生方法。
JP2006540064A 2005-04-22 2006-04-12 記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体 Active JP4438798B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005125547 2005-04-22
JP2005125547 2005-04-22
PCT/JP2006/307744 WO2006115060A1 (ja) 2005-04-22 2006-04-12 記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2006115060A1 true JPWO2006115060A1 (ja) 2008-12-18
JP4438798B2 JP4438798B2 (ja) 2010-03-24

Family

ID=37214684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006540064A Active JP4438798B2 (ja) 2005-04-22 2006-04-12 記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体

Country Status (6)

Country Link
US (1) US7978955B2 (ja)
EP (1) EP1873780B1 (ja)
JP (1) JP4438798B2 (ja)
CN (1) CN1977333B (ja)
TW (1) TW200735046A (ja)
WO (1) WO2006115060A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022148A1 (ja) * 2004-08-25 2006-03-02 Pioneer Corporation 情報再生装置
JP4622950B2 (ja) * 2006-07-26 2011-02-02 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
US8239767B2 (en) * 2007-06-25 2012-08-07 Microsoft Corporation Audio stream management for television content
JP2009076172A (ja) * 2007-09-25 2009-04-09 Hitachi Ltd データ伝送方法、光ディスク記録方法及び光ディスク記録装置
JP5095436B2 (ja) * 2008-02-12 2012-12-12 ソニー株式会社 Bgm付きスライドショー表示システム、bgm付きスライドショー表示方法、情報処理装置、再生装置及びプログラム
US8305078B2 (en) 2008-10-09 2012-11-06 Los Alamos National Security, Llc Method of performing MRI with an atomic magnetometer
US8099476B2 (en) 2008-12-31 2012-01-17 Apple Inc. Updatable real-time or near real-time streaming
US8578272B2 (en) 2008-12-31 2013-11-05 Apple Inc. Real-time or near real-time streaming
US8260877B2 (en) * 2008-12-31 2012-09-04 Apple Inc. Variant streams for real-time or near real-time streaming to provide failover protection
US8156089B2 (en) 2008-12-31 2012-04-10 Apple, Inc. Real-time or near real-time streaming with compressed playlists
BRPI1004221A2 (pt) * 2009-07-10 2020-09-15 Panasonic Corporation meio de gravação, dispositivo de reprodução, e circuito integrado
US8731053B2 (en) * 2009-11-18 2014-05-20 Tektronix, Inc. Method of multiplexing H.264 elementary streams without timing information coded
GB201105502D0 (en) 2010-04-01 2011-05-18 Apple Inc Real time or near real time streaming
US8560642B2 (en) 2010-04-01 2013-10-15 Apple Inc. Real-time or near real-time streaming
US8805963B2 (en) 2010-04-01 2014-08-12 Apple Inc. Real-time or near real-time streaming
US8892691B2 (en) 2010-04-07 2014-11-18 Apple Inc. Real-time or near real-time streaming
FR2964279B1 (fr) * 2010-08-30 2012-09-28 Freebox Procede de diffusion d'un flux de transport audio/video numerique paquetise, notamment pour diffusion sur ligne xdsl
KR101803970B1 (ko) * 2011-03-16 2017-12-28 삼성전자주식회사 컨텐트를 구성하는 장치 및 방법
TWI476761B (zh) * 2011-04-08 2015-03-11 Dolby Lab Licensing Corp 用以產生可由實施不同解碼協定之解碼器所解碼的統一位元流之音頻編碼方法及系統
US8856283B2 (en) 2011-06-03 2014-10-07 Apple Inc. Playlists for real-time or near real-time streaming
US8843586B2 (en) 2011-06-03 2014-09-23 Apple Inc. Playlists for real-time or near real-time streaming
US9411031B2 (en) 2012-04-25 2016-08-09 Los Alamos National Security, Llc Hypothesis-driven classification of materials using nuclear magnetic resonance relaxometry
WO2015124269A1 (en) * 2014-02-24 2015-08-27 Ctrlmovie Ag Device and method for playing an interactive audiovisual movie
US11128896B2 (en) * 2018-08-27 2021-09-21 Comcast Cable Communications, Llc Secondary content delivery

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4489248B2 (ja) * 1999-06-02 2010-06-23 パナソニック株式会社 光ディスク、光ディスクに対してデータの記録、再生を行なう装置及び方法
JP4682434B2 (ja) * 2000-04-21 2011-05-11 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
CN1193607C (zh) 2000-04-21 2005-03-16 索尼公司 信息处理设备和方法
WO2001082604A1 (en) * 2000-04-21 2001-11-01 Sony Corporation Information processing apparatus and method, program, and recorded medium
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
US7136335B2 (en) * 2002-04-09 2006-11-14 Matsushita Electric Industrial Co., Ltd. Information recording medium, recording apparatus, and reproduction apparatus
US7889968B2 (en) * 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
US8055117B2 (en) * 2003-02-15 2011-11-08 Lg Electronics Inc. Recording medium having data structure for managing reproduction duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
JP2005063594A (ja) * 2003-08-18 2005-03-10 Matsushita Electric Ind Co Ltd データ処理システム
US20060007963A1 (en) * 2004-06-10 2006-01-12 Samsung Electronics Co., Ltd. Information storage medium containing AV stream including graphic data, and reproducing method and apparatus therefor
WO2006034464A1 (en) * 2004-09-23 2006-03-30 Thomson Licensing Inserting metadata for trick play in video transport stream
US7236045B2 (en) * 2005-01-21 2007-06-26 Intel Corporation Bias generator for body bias
EP2765574A3 (en) * 2005-08-10 2014-12-10 Mitsubishi Electric Corporation Recording medium with a multiplexed stream of intra coded pictures and an entry point table

Also Published As

Publication number Publication date
CN1977333A (zh) 2007-06-06
EP1873780B1 (en) 2018-10-03
US20080008447A1 (en) 2008-01-10
TWI327310B (ja) 2010-07-11
US7978955B2 (en) 2011-07-12
EP1873780A4 (en) 2012-02-08
EP1873780A1 (en) 2008-01-02
WO2006115060A1 (ja) 2006-11-02
TW200735046A (en) 2007-09-16
JP4438798B2 (ja) 2010-03-24
CN1977333B (zh) 2010-09-29

Similar Documents

Publication Publication Date Title
JP4438798B2 (ja) 記録装置および記録方法、再生装置および再生方法、プログラム、並びに記録媒体
KR100806432B1 (ko) 정보 처리 장치 및 방법, 프로그램과 기록 매체
US7738776B2 (en) Information processing apparatus and method, program, and recorded medium
JP4249223B2 (ja) 再生装置、及び記録方法
JP4249224B2 (ja) 再生装置、及び記録方法
JP4288613B2 (ja) 再生装置および再生方法、プログラム、記録媒体、並びにデータ構造
US7474840B2 (en) Data recording apparatus for managing content when content is deleted
JP4682434B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4517267B2 (ja) 記録装置および方法、再生装置および方法、プログラム、並びに記録媒体
WO2001082610A1 (en) Information processing apparatus and method, program, and recorded medium
KR20020020919A (ko) 정보 처리 장치 및 방법, 프로그램과 기록 매체
JP4210948B2 (ja) 情報処理装置および情報処理方法、プログラム格納媒体、並びに、プログラム
US7974281B2 (en) Multiplexer and multiplexing method, program, and recording medium
JP4552889B2 (ja) 記録装置、記録方法および記録プログラム、ならびに、撮像装置および撮像方法
EP2003891A1 (en) Recording device, recording method, and recording program
JP7070433B2 (ja) 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2006054629A (ja) データ記録再生方法および記録再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4438798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250