JP2008193604A - Reproducing apparatus and method, and program - Google Patents
Reproducing apparatus and method, and program Download PDFInfo
- Publication number
- JP2008193604A JP2008193604A JP2007028394A JP2007028394A JP2008193604A JP 2008193604 A JP2008193604 A JP 2008193604A JP 2007028394 A JP2007028394 A JP 2007028394A JP 2007028394 A JP2007028394 A JP 2007028394A JP 2008193604 A JP2008193604 A JP 2008193604A
- Authority
- JP
- Japan
- Prior art keywords
- stream
- audio
- data
- audio stream
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、再生装置および方法並びにプログラムに関し、特に、再生される音声データの合成が可能なようになされている場合に用いて好適な再生装置および方法並びにプログラムに関する。 The present invention relates to a playback apparatus, method, and program, and more particularly, to a playback apparatus, method, and program suitable for use when audio data to be played back can be synthesized.
異なったコンテンツを同時視聴するために、複数のコンテンツの映像データをデコードした後、非圧縮の画像データを合成して、その後、D/A変換を実行し、映像出力端子へ出力して、外部の表示装置に表示させる技術がある(例えば、特許文献1)。 In order to view different contents simultaneously, after decoding video data of multiple contents, uncompressed image data is synthesized, then D / A conversion is performed and output to the video output terminal. There is a technique for displaying on a display device (for example, Patent Document 1).
上述した特許文献1のように、ビデオデータを合成するためには、圧縮符号化されたビデオデータをそれぞれ復号し、非圧縮のビデオデータを合成する必要がある。これば、ビデオデータのみならず、オーディオデータであっても同様であり、オーディオデータを合成する場合には、非圧縮のオーディオデータを用いなければならない。
As described in
また、出力先の機器が有する機能、または、出力先の機器との接続方法によっては、出力データは、符号化されたデータでなければならない場合がある。 Depending on the function of the output destination device or the connection method with the output destination device, the output data may have to be encoded data.
主に出力される音声データに対して、他の音声データが合成され、出力される音声データは、符号化データである場合の処理について、図1を用いて説明する。 The processing when the other audio data is synthesized with the audio data mainly output and the output audio data is encoded data will be described with reference to FIG.
第1の音声データ取得部11は、例えば、光ディスクから読み出されて供給された圧縮符号化された第1の音声データを取得し、復号部12に供給する。第1の音声データは、そのコンテンツにおいて、常時再生出力される音声データであるものとする。復号部12は、第1の音声データ取得部11から供給された、圧縮符号化された第1の音声データを復号し、非圧縮の第1の音声データを、合成部14に供給する。
The first audio
第2の音声データ取得部13は、非圧縮の第2の音声データを取得し、合成部14に供給する。合成部14は、第2の音声データ取得部13から非圧縮の第2の音声データの供給を受け、第2の音声データを、復号部12から供給された非圧縮の第1の音声データと合成し、合成された音声データを符号化部15に供給する。
The second audio
符号化部15は、供給された音声データを符号化し、デジタルインターフェース16に供給する。デジタルインターフェースは、供給された符号化データを、所定のネットワークを介して、他の装置などに送出する。
The
この非圧縮の第2の音声データは、そのコンテンツに対して用意されている場合と用意されていない場合がある。すなわち、コンテンツによっては、第2の音声データ取得部13が、非圧縮の第2の音声データを取得しないようになされている場合や、コンテンツの所定の部分のみ、第2の音声データが用意され、第2の音声データ取得部13が、所定の部分のみの非圧縮の第2の音声データを取得するようになされている場合などがある。合成部14は、第2の音声データ取得部13から非圧縮の第2の音声データの供給を受けない場合、復号部12から供給された非圧縮の第1の音声データを符号化部15に供給する。
This uncompressed second audio data may or may not be prepared for the content. That is, depending on the content, the second audio
図1を用いて説明した装置において、主に再生出力される第1の音声データに対して、第2の音声データが合成されるコンテンツと合成されないコンテンツの両方を再生出力可能なようになされている場合、または、同一コンテンツの所定の部分のみ、第2の音声データを合成することが可能なようになされている場合、従来では、再生出力する装置において、第2の音声データが合成されるか否か(第2の音声データが存在するか否か)を検出することができなかった。 In the apparatus described with reference to FIG. 1, the first audio data mainly reproduced and output can be reproduced and output both the content synthesized with the second audio data and the content not synthesized. If it is possible to synthesize the second audio data only for a predetermined part of the same content, conventionally, the second audio data is synthesized in the reproduction output device. It was not possible to detect whether or not the second audio data exists.
したがって、第1の音声データは、第2の音声データが合成されないコンテンツ、または、第2の音声データが合成されない部分であっても、第2の音声データが合成される場合と同様に、復号され、再符号化されるようになされていた。そのため、第1の音声データは、常に復号および再符号化のために、音質が劣化してしまう。 Therefore, the first audio data is decoded in the same manner as the case where the second audio data is synthesized even if the content is not synthesized with the second audio data or the portion where the second audio data is not synthesized. And re-encoded. Therefore, the sound quality of the first sound data is always deteriorated due to decoding and re-encoding.
本発明はこのような状況に鑑みてなされたものであり、必要に応じて音声データの合成を実現するとともに、音声データの劣化をできるだけ防ぐことができるようにするものである。 The present invention has been made in view of such a situation, and is intended to realize synthesis of audio data as necessary and to prevent deterioration of the audio data as much as possible.
本発明の一側面の画像処理装置は、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と、前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段とを備える。 An image processing apparatus according to an aspect of the present invention includes a reproduction data acquisition unit that acquires reproduction data including an encoded audio stream, and a decoding that performs a decoding process on the encoded audio stream acquired by the reproduction data acquisition unit Means for synthesizing the uncompressed audio signal obtained as a result of the decoding process by the decoding means with synthesis data that is data to be synthesized with the uncompressed audio signal; Re-encoding means for performing re-encoding processing on the synthesized non-compressed audio signal, and the encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, and is synthesized The first data in which the data for synthesis exists and the user permits or instructs the synthesis , Allowing the output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means, and outputting the re-encoded audio stream to the outside in the second case other than that. Control means for prohibiting.
前記制御手段は、さらに、前記第2の場合、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する。 In the second case, the control means also permits the output of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data to the outside.
前記制御手段は、さらに、再生対象の前記符号化オーディオストリームが有するチャンネル数を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器が、判別した前記チャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合には、前記再符号化オーディオストリームの出力を禁止する。 The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. In the third case corresponding to transmission or reception of an uncompressed audio signal, output of the re-encoded audio stream is prohibited.
前記制御手段は、さらに、前記第1の場合であって前記第3の場合、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する。 The control means further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case.
前記制御手段は、前記第1の場合であるか前記第2の場合であるかの判断処理の少なくとも一部として、前記再生データ取得手段により取得された前記再生データに含まれるインタラクティブグラフィックスストリームのデータの解析結果に基づいて、再生対象の前記符号化オーディオストリームに合成させるための前記合成用データが存在するか否かを判断する。 The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means Based on the data analysis result, it is determined whether or not the data for synthesis to be synthesized with the encoded audio stream to be reproduced exists.
前記制御手段は、さらに、前記合成手段により前記非圧縮オーディオ信号に対して前記合成用データが合成された合成部分を認識し、再生対象の前記符号化オーディオストリームのうちの、その合成部分に対応する部分については、前記再符号化オーディオストリームの形態で出力し、それ以外の部分については、元の前記符号化オーディオストリームのままの形態で出力する。 The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The part to be output is output in the form of the re-encoded audio stream, and the other part is output in the form of the original encoded audio stream.
前記制御手段の制御に基づいて、前記第1の場合、外部への出力を、前記再符号化オーディオストリームに切り替え、前記第2の場合、外部への出力を、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号に切り替える切り替え手段をさらに備える。 Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, Alternatively, a switching means for switching to the uncompressed audio signal synthesized with the synthesis data is further provided.
本発明の一側面の画像処理方法およびプログラムは、上述した本発明の一側面の画像理装置に対応する方法およびプログラムである。 An image processing method and program according to one aspect of the present invention are a method and program corresponding to the above-described image processing apparatus according to one aspect of the present invention.
本発明の一側面の画像処理装置および方法、並びにプログラムにおいては、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段とを備える再生装置を対象として、次のような処理が実行される。即ち、前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力が許可され、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止される。 In the image processing apparatus and method, and the program according to one aspect of the present invention, reproduction data acquisition means for acquiring reproduction data including an encoded audio stream, and the encoded audio stream acquired by the reproduction data acquisition means Decoding means for performing decoding processing, combining means for combining data for combining with an uncompressed audio signal obtained as a result of the decoding processing by the decoding means, and data for combining The following processing is executed for a playback apparatus including re-encoding means for performing re-encoding processing on the uncompressed audio signal combined with data. In other words, the encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combination data to be combined there exists, and the user permits or instructs the combination In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means is permitted, and in the second case other than that, the re-encoded audio is output. Output outside the stream is prohibited.
以上のごとく、本発明の第1の側面によれば、音声(オーディオ)データを再生することができ、特に、必要に応じて音声データの合成を実現するとともに、再符号化音声データ(再符号化オーディオストリーム)の出力の可否を制御することで、音声データの劣化をできるだけ防ぐことができるようにするものである。 As described above, according to the first aspect of the present invention, it is possible to reproduce audio (audio) data. In particular, it realizes synthesis of audio data as necessary, and re-encoded audio data (re-encoding). The audio data is prevented from being deteriorated as much as possible by controlling whether or not the (audio stream) can be output.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
本発明の一側面の情報処理装置(例えば図37の再生装置20)は、
符号化オーディオストリームを含む再生データを取得する再生データ取得手段(例えば図37の再生データ取得部31)と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段(例えば図37の1stオーディオデコーダ75−1)と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段(例えば図37のミキシング処理部102,97)と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段(例えば図37のオーディオエンコーダ41)と、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段(例えば図38のオーディオ信号再生処理を実行する図37のコントローラ34)と
を備える。
An information processing apparatus according to one aspect of the present invention (for example, the
Reproduction data acquisition means (for example, reproduction
Decoding means (for example, 1st audio decoder 75-1 in FIG. 37) for performing decoding processing on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit (for example,
Re-encoding means (for example,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream Control means for prohibiting output to the outside (for example, the
前記制御手段は、さらに、前記第2の場合、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する(例えば図38のステップS3,S8,S15等の処理を実行する)。 The control means further permits the output of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data to the outside in the second case (for example, step of FIG. 38). (S3, S8, S15, etc. are executed).
前記制御手段は、さらに、再生対象の前記符号化オーディオストリームが有するチャンネル数を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器が、判別した前記チャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合(例えば、図38のステップS18の処理でYESであると判定した場合)には、前記再符号化オーディオストリームの出力を禁止する。 The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. In the third case corresponding to transmission or reception of an uncompressed audio signal (for example, when it is determined YES in step S18 of FIG. 38), the output of the re-encoded audio stream is prohibited. To do.
前記制御手段は、さらに、前記第1の場合であって前記第3の場合、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する(例えば図38のステップS20の処理を実行する)。 The control means further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case (for example, in step S20 of FIG. 38). Process).
前記制御手段は、前記第1の場合であるか前記第2の場合であるかの判断処理の少なくとも一部として、前記再生データ取得手段により取得された前記再生データに含まれるインタラクティブグラフィックスストリームのデータ(例えば図37のインタラクティブグラフィックスプレーン生成部94により生成されるデータ)の解析結果に基づいて、再生対象の前記符号化オーディオストリームに合成させるための前記合成用データが存在するか否かを判断する。 The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means Based on the analysis result of the data (for example, the data generated by the interactive graphics plane generating unit 94 in FIG. 37), it is determined whether or not the synthesis data to be synthesized with the encoded audio stream to be reproduced exists. to decide.
前記制御手段は、さらに、前記合成手段により前記非圧縮オーディオ信号に対して前記合成用データが合成された合成部分を認識し、再生対象の前記符号化オーディオストリームのうちの、その合成部分に対応する部分については、前記再符号化手段による前記再符号化処理の結果得られる前記再符号化オーディオストリームの形態で出力し(例えば図40の区間221として出力し)、それ以外の部分については、前記符号化オーディオストリームのままの形態で出力する(例えば図40の区間220,222として出力する)。
The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The portion to be output is output in the form of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit (for example, output as the
前記制御手段の制御に基づいて、前記第1の場合、外部への出力を、前記再符号化オーディオストリームに切り替え、前記第2の場合、外部への出力を、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号に切り替える切り替え手段(例えば図37のスイッチ45)をさらに備える。 Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, Alternatively, it further includes switching means (for example, switch 45 in FIG. 37) for switching to the uncompressed audio signal synthesized with the synthesis data.
本発明の一側面の再生方法は、
符号化オーディオストリームを含む再生データを取得する再生データ取得手段(例えば図37の再生データ取得部31)と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段(例えば図37の1stオーディオデコーダ75−1)と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段(例えば図37のミキシング処理部102,97)と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段(例えば図37のオーディオエンコーダ41)と
を備える再生装置(例えば図37の再生装置20)の再生方法において、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップ(例えば図37のコントローラ34が実行する図38のオーディオ信号再生処理の各ステップ)を含む。
A playback method according to one aspect of the present invention includes:
Reproduction data acquisition means (for example, reproduction
Decoding means (for example, 1st audio decoder 75-1 in FIG. 37) for performing decoding processing on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit (for example, mixing
Reproduction means (for example, reproduction of FIG. 37), comprising: re-encoding means (for example,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream This includes a step of prohibiting output to the outside (for example, each step of the audio signal reproduction process of FIG. 38 executed by the
本発明の一側面のプログラムは、上述した本発明の一側面の情報処理方法に対応するプログラムであって、例えば図43のコンピュータ500により実行される。
A program according to one aspect of the present invention is a program corresponding to the information processing method according to one aspect of the present invention described above, and is executed by, for example, the
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2を用いて、本発明を適用した再生装置について説明する。 A reproducing apparatus to which the present invention is applied will be described with reference to FIG.
再生装置20は、装着された、例えば、光ディスクなどの記録媒体21に記録されている情報、ネットワーク22を介して供給された情報、または、自分自身の内部の記録媒体(例えば、HDDなど)に記録されている情報を再生することができる。再生装置20は、再生されたデータを、有線または無線により接続されている表示・音声出力装置23に供給して、画像を表示させ、音声を出力させることができる。再生装置20はまた、再生されたデータを、ネットワーク22を介して、他の装置に送出することができる。再生装置20は、例えば、リモートコマンダ24のほか、本体に備えられたボタン等の入力デバイスによって、ユーザからの操作入力を受けることができる。
For example, the
記録媒体21は、再生装置20により再生可能な映像および音声を含むデータを所定のフォーマットで記録している。記録媒体21は、光ディスクの他、例えば、磁気ディスクや半導体メモリであってもよい。
The
表示・音声出力装置23が、デジタルの非圧縮データの入力を受けるようになされている場合、再生装置20は、記録媒体21などに記録されている符号化データを復号して、非圧縮データを表示・音声出力装置23に供給するようになされているが、表示・音声出力装置23が、復号機能を有し、圧縮データの入力を受けるようになされている場合、再生装置20は、圧縮データを表示・音声出力装置23に供給するようになされている。また、表示・音声出力装置23が、非圧縮のアナログデータの入力を受けるようになされている場合、再生装置20は、記録媒体21などに記録されている符号化データを復号して、非圧縮データをD/A変換してアナログ信号を生成し、表示・音声出力装置23に供給するようになされている。再生装置20はまた、記録媒体21などに記録されているデータを再生し、圧縮データの状態で、ネットワーク22に送出する。
When the display /
図3は、図2の再生装置20によって再生可能な情報、すなわち、再生装置20に装着される記録媒体21に記録されているデータ、ネットワーク22を介して供給されるデータ、または、再生装置20の内部の記録媒体に記録されているデータのアプリケーションフォーマットの例を示す図である。
3 shows information that can be played back by the
アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayListとClipの2つのレイヤを有している。ここでは、1つのAVストリームとそれに付随する情報であるClipインフォメーションのペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。また、ClipインフォメーションをClipインフォメーションファイルとも称する。 The application format has two layers, PlayList and Clip, for managing AV (Audio Visual) streams. Here, a pair of one AV stream and Clip information as information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. Clip information is also referred to as a Clip information file.
一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。 In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.
Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。 When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.
PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図3に示されるように1つ、または複数のPlayItemにより構成される。 The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Accordingly, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.
図3において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。 In FIG. 3, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.
ナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述される。 The navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This navigation program is described in a programming language such as Java (registered trademark).
例えば、図3のナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。 For example, when the left PlayItem included in the first PlayList from the left is specified as information representing the playback position at that time by the navigation program of FIG. 3, the AV included in the left Clip referred to by the PlayItem The first half of the stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.
ナビゲーションプログラムは、インデックステーブル(Index table)と、インデックステーブルにより読み出されるナビゲーションオブジェクト(Navigation Object)により構成される。図4を用いて、インデックステーブルとナビゲーションオブジェクトについて説明する。 The navigation program includes an index table and a navigation object that is read by the index table. The index table and the navigation object will be described with reference to FIG.
インデックステーブルは、コンテンツのタイトルやメニューの定義を行うものであり、各タイトルやメニューのエントリーポイントを保持している。FirstPlaybackには、このデータを記録している記録媒体21が再生装置20に装着されたときなど、インデックステーブルが読み込まれたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれている。TopMenuには、ユーザが、コンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれている。それぞれのTitleは、所定のTitle IDで区別されるタイトルごとに割り当てられて呼び出すことが可能なNavigationObjectに関する情報が含まれている。この図4においては、1つのTitleに付き1つのNavigation Commandが存在している。
The index table defines content titles and menus, and holds entry points for each title and menu. FirstPlayback includes information related to the NavigationObject that is automatically executed first when the index table is read, such as when the
ナビゲーションオブジェクトは、実行可能なコマンドであるNavigation commandから成っている。Navigation Commandは、例えば、PlayListの再生や、他のNavigation Objectの呼び出しなどの各種コマンドを含む。例えば、Navigation Command#3に、PlayList#1を再生するための命令文が含まれる場合、Navigation Command#3を実行すると、PlayList#1が再生される。
The navigation object consists of a navigation command that is an executable command. The Navigation Command includes, for example, various commands such as PlayList playback and calling other Navigation Objects. For example, when
インデックステーブルを含むデータファイルであるIndexファイルについては、図9乃至図11を用いて後述する。 The Index file that is a data file including the index table will be described later with reference to FIGS.
本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに並行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置20で再生可能なデータのアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)を、PlayListの中に持つ(関連付けられる)ようになされている。
In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and in the PlayList, parallel to the Main Path (in parallel) ) And a playback path created by a sequence of one or more sub paths (which may be discontinuous or may be continuous) is referred to as a sub path. In other words, the application format of data that can be played back by the
図5は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。 FIG. 5 is a diagram for explaining the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.
図5の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。 In the case of the example in FIG. 5, the PlayList has one main path made up of a sequence of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. The subpath with Subpath_id = 0 includes one SubPlayItem, the subpath with Subpath_id = 1 includes two SubPlayItems, and the subpath with Subpath_id = 2 includes one SubPlayItem.
Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。 The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.
1つのPlayItemが参照するClip AVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリームが1つ以上含まれてもよいし、含まれなくてもよい。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、Clip AVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。 A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the Clip AV stream file may or may include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the Clip AV stream file. It does not have to be. Furthermore, the Clip AV stream file may or may not include one or more bitmap subtitle streams that are played back at the same timing as the video stream included in the Clip AV stream file. The Clip AV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the Clip AV stream file. The video stream included in the Clip AV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more. The interactive graphics stream data is multiplexed.
すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。 That is, a Clip AV stream file referred to by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream.
また、1つのSubPlayItemは、PlayItemが参照するClip AVストリームファイルとは
なるストリーム(別ストリーム)のオーディオストリームデータや字幕データを参照する。
Also, one SubPlayItem refers to audio stream data and subtitle data of a stream (another stream) that is a Clip AV stream file referred to by the PlayItem.
メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中からしか音声や字幕を選択することができない。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClip AVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを参照することができる。 When playing a PlayList that has only the main path, the user can select audio and subtitles only from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. Can not do it. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem Or a sub-picture stream.
このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClip AVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。 In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the Clip AV stream referred to by MainPath, a SubPlayItem can be added later.
図6は、メインパスとサブパスの例を説明する図である。図6においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。 FIG. 6 is a diagram illustrating an example of a main path and a sub path. In FIG. 6, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path.
図6のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、図6のメインAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図6の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、指定されたClipに含まれるストリーム(ここでは、Auxiliary audio stream)中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図6の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図6の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。 The PlayList in FIG. 6 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main AV stream in FIG. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the example of FIG. 6, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the stream (Auxiliary audio stream in this case) included in the specified Clip. Further, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be reproduced on the time axis of the Main path. In the case of the example in FIG. 6, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. As a result, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 6, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.
ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。サブパスに使われるClipに含まれるストリームのオーディオサンプルのクロックは、メインパスに使われるClipに含まれるストリームのオーディオサンプルのクロックにロックされている。 Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities). The clock of the audio sample of the stream included in the Clip used for the sub path is locked to the clock of the audio sample of the stream included in the Clip used for the main path.
換言すると、SubPlayItem()には、Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報が含まれている。Sub Pathに使われるClip AVストリームがSTCを含まないため、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClip AVストリーム(メインAVストリーム)とは異なるClip AVストリームのオーディオストリームを参照して、再生することができる。 In other words, in SubPlayItem (), information specifying the Clip referred to by the Sub Path, information specifying the playback section of the Sub Path, and information specifying the time when the Sub Path starts playback on the time axis of the Main path It is included. Since the Clip AV stream used in Sub Path does not include STC, information included in SubPlayItem () (information specifying Clip referred to by Sub Path, information specifying Sub Path playback section, and time axis of Main path) Based on the above (information specifying the time when the Sub Path starts playback), the audio stream of the Clip AV stream different from the Clip AV stream (main AV stream) referred to by the main path can be referred to and reproduced. it can.
このように、PlayItemとSubPlayItemは、Clip AVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClip AVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClip AVストリームファイルは異なるファイルとなる。 In this way, PlayItem and SubPlayItem manage Clip AV stream files, respectively. Here, the Clip AV stream file (main AV stream) managed by PlayItem and the Clip AV stream file managed by SubPlayItem are different from each other. Become.
なお、図6の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。 Similar to the example of FIG. 6, a subtitle stream playback path that is played back at the same timing as the main path can be expressed using a sub path.
図7は、メインパスとサブパスの別の例を説明する図である。図7においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。ここで、メインパスのPlayItemが参照するメインAVストリームファイルは、図6と同様であるので省略している。 FIG. 7 is a diagram illustrating another example of the main path and the sub path. In FIG. 7, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path. Here, the main AV stream file referred to by PlayItem in the main path is the same as in FIG.
例えば、メインパスにより参照されるClipAVストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスのオーディオパスにより参照されるAuxiliary audio streamをその映画に対する監督のコメントとし、メインパスで参照されるClipAVストリームのオーディオストリームにサブパスのオーディオパスで参照されるAuxiliary audio streamをミキシング(重ねて)再生するような場合に、このような構成が利用される。すなわち、ユーザが、映画を見ながら、その映画に対する監督のコメントを合わせて聞く指令を再生装置(プレーヤ)へ入力した場合、例えば、メインパスで参照されるClipAVストリームの音声と、サブパスのオーディオパスで参照されるAuxiliary audio streamとを、ミキシングして再生させる場合に利用される。 For example, a clip AV stream referred to by the main path is set as one movie content (AV content), an auxiliary audio stream referenced by the sub-path audio path is set as a director's comment for the movie, and a clip AV stream referred to by the main path is used. Such a configuration is used when the auxiliary audio stream referred to in the sub-path audio path is mixed (overlaid) with the audio stream. That is, when the user inputs a command to listen to the director's comment together with the movie while watching the movie, for example, the audio of the Clip AV stream referenced in the main path and the audio path of the sub path This is used when the Auxiliary audio stream referenced in the above is mixed and played back.
図7においては、メインパスに3つのPlayItemがPlayItem_id=0,1,2と配置され、サブパス(Subpath_id=0)に2つのSubPlayItemが配置されている。そして、Subpath_id=0のSubPath(図19にて後述する)で呼び出すSubPlayItem(図21にて後述する)は、Auxiliary audio stream(SubClip_entry_id=0の英語のAuxiliary audio streamのクリップ及びSubClip_entry_id=1の日本語のAuxiliary audio streamのクリップ)のSubpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。 In FIG. 7, three PlayItems are arranged in the main path as PlayItem_id = 0, 1, 2, and two SubPlayItems are arranged in the subpath (Subpath_id = 0). SubPlayItem (described later in FIG. 21) called by SubPath with Subpath_id = 0 (described later in FIG. 19) is an Auxiliary audio stream (English Auxiliary audio stream clip with SubClip_entry_id = 0 and SubClip_entry_id = 1 Japanese) SubPlayItem_IN_time and SubPlayItem_out_time for specifying the subpath playback section of (Auxiliary audio stream clip).
図7と図6とを比較するに、図7においては、SubPlayItemによって、SubClip_entry_id=0,1のAuxiliary audio stream(英語または日本語のオーディオストリーム)を参照することができる。すなわち、SubPlayItemを用いて、複数のオーディオストリームファイルを参照する構造を有し、このSubPlayItemを再生する場合には、複数のオーディオストリームファイルから1つのオーディオストリームファイルが選ばれて再生される。図7の例の場合、英語のオーディオストリームファイルと日本語のオーディオストリームファイルのうち、1つのオーディオストリームファイルが選ばれて再生される。具体的には、subClip_entry_id=0,1の中から(ユーザの指令に基づいて)1つが選択され、そのIDが参照するAuxiliary audio streamが再生される。また、これに加えて、さらにメインパスにより参照されるオーディオストリームとのミキシングによる再生が選択された場合(再生するオーディオストリームとして2つのオーディオストリームが選択された場合)、例えば、メインパスで参照されるオーディオストリームファイルと、サブパスのオーディオパスで参照されるオーディオストリームファイルとが、ミキシングされて再生される。 7 is compared with FIG. 6, in FIG. 7, an auxiliary audio stream (English or Japanese audio stream) of SubClip_entry_id = 0, 1 can be referred to by SubPlayItem. That is, it has a structure that refers to a plurality of audio stream files using SubPlayItem, and when reproducing this SubPlayItem, one audio stream file is selected from the plurality of audio stream files and reproduced. In the case of the example in FIG. 7, one audio stream file is selected and reproduced from the English audio stream file and the Japanese audio stream file. Specifically, one of subClip_entry_id = 0 and 1 is selected (based on a user instruction), and an auxiliary audio stream referred to by the ID is reproduced. In addition to this, when playback by mixing with an audio stream referred to by the main path is selected (when two audio streams are selected as audio streams to be played back), for example, the playback is referred to by the main path. The audio stream file to be referred to and the audio stream file referred to by the sub-path audio path are mixed and reproduced.
図8は、再生装置20において再生可能なデータファイルのファイルシステムの例を示す図である。図8には、一例として、再生装置20において再生可能なデータファイルが光ディスクなどの記録媒体21によって供給されている場合を示しており、このファイルシステムはディレクトリ構造を有している。
FIG. 8 is a diagram illustrating an example of a file system of a data file that can be played back by the
このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディレクトリが用意され、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これらのファイルをそれぞれIndexファイル、NavigationObjectファイルと称する。また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。 In this file system, a directory with the name “BDMV” is prepared under “root”, and a file with the name “Index.bdmv” and a file “NavigationObject.bdmv” Contains a file with a name. Hereinafter, these files will be referred to as an Index file and a NavigationObject file, respectively, as appropriate. As appropriate, each file is referred to by adding “file” to “file name”, or each directory is referred to by adding “directory” to “directory name”.
Indexファイルは、上述したインデックステーブルが記載されたファイルであり、再生装置20において再生可能なデータファイルを再生するメニューに関する情報を含む。再生装置20は、例えば、再生装置20において再生可能なデータファイルに含まれるコンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面をIndexファイルに基づいて、表示装置に表示させる。Indexファイルのインデックステーブルには各項目が選択されたときに実行するNavigationObjectを設定することができ、ユーザにより再生メニュー画面から1つの項目が選択された場合、再生装置20はIndexファイルのインデックステーブルに設定されているNavigationObjectのコマンドを実行する。
The Index file is a file in which the above-described index table is described, and includes information related to a menu for reproducing a data file that can be reproduced by the reproducing
NavigationObjectファイルは、NavigationObjectを含むファイルである。NavigationObjectは、再生装置20において再生可能なデータファイルに含まれているPlayListの再生を制御するコマンドを含み、例えば、再生装置20は、このファイルシステムに含まれているNavigationObjectの中から1つを選択して、実行することにより、コンテンツを再生させることができる。
The NavigationObject file is a file containing NavigationObject. The NavigationObject includes a command for controlling playback of a PlayList included in a data file that can be played back by the
BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ(BACKUPディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、「CLIPINF」の名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定されたディレクトリ(AUXDATAディレクトリ)が設けられている。 The BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), and a directory with the name “CLIPINF” (CLIPINF directory). , A directory (STREAM directory) in which the name “STREAM” is set, and a directory (AUXDATA directory) in which the name “AUXDATA” is set.
BACKUPディレクトリには、再生装置20において再生可能なファイルやデータをバックアップするためのファイルやデータが記録される。
In the BACKUP directory, files and data for backing up files and data that can be played back by the
PLAYLISTディレクトリには、PlayListファイルが格納される。各PlayListファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.mpls」を付加した名称が命名される。 A PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name consisting of a 5-digit number.
CLIPINFディレクトリには、Clip Informationファイルが格納される。各Clip Informationファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.clpi」を付加した名称が命名される。 A Clip Information file is stored in the CLIPINF directory. Each Clip Information file is named by adding the extension “.clpi” to a file name consisting of five digits as shown in the figure.
STREAMディレクトリには、Clip AVストリームファイルやサブストリームファイルが格納される。各ストリームファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.m2ts」を付加した名称が命名される。 In the STREAM directory, a Clip AV stream file and a substream file are stored. Each stream file is given a name obtained by adding an extension “.m2ts” to a file name consisting of five digits as shown in the figure.
AUXDATAディレクトリには、Clip AVストリームファイルやサブストリームファイルに含まれずに、Clip AVストリームファイルやサブストリームファイルから参照されるデータや、Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデータなどのファイルが格納される。図8の例においては、AUXDATAディレクトリには、「11111.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名前が設定された効果音などのサウンドデータが格納されている。 The AUXDATA directory is not included in the Clip AV stream file or substream file, but is referred to from the Clip AV stream file or substream file, or data used independently of the Clip AV stream file or substream file. And other files are stored. In the example of FIG. 8, the AUXDATA directory stores sound data such as subtitle font files with the name “11111.otf” and sound effects with the name “sound.bdmv”. ing.
また、再生装置20において再生可能なデータファイルが光ディスクによって配布されている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルオーサに割り当てられた識別子であるauthor_id、および、author_idに示されるタイトルオーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子であるdisc_idが、ユーザなどにより書き換えることができないセキュアな電子データとして、または、物理的にピットによって記録されている。
Further, when a data file that can be played back by the
また、再生装置20において再生可能なデータファイルが光ディスク以外のリムーバブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされている場合も、author_id、および、author_idに相当するidが割り当てられてそれぞれ区別可能なようになされ、図8に示す場合と同様のディレクトリ構造を有していると好適である。また、再生装置20において再生可能なデータファイルには、author_id、および、author_idに相当するidが割り当てられていないとしても、図8を用いて説明した場合と同様に、「Index.bdmv」の名前が設定されたファイル、「NavigationObject.bdmv」の名前が設定されたファイルが含まれており、「BACKUP」の名前が設定されたファイル群、「PLAYLIST」の名前が設定されたファイル群、「CLIPINF」の名前が設定されたファイル群、「STREAM」の名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル群のうち、適宜必要なファイル群が含まれている。
In addition, even when a data file that can be played back by the
ところで、再生装置20は、音声データを非圧縮データとして出力する場合と、圧縮符号化されたデータとして出力する場合とがある。また、再生装置20は、音声データを必要に応じて合成することができる。再生装置20は、例えば、主に再生出力される音声データに対して、効果音を合成する機能を有することができ、また、効果音のみならず、第2の音声(副音声など)を主に再生出力される音声データに合成する機能を有することができる。換言すれば、再生装置20が音声データの合成を行うか否かは、再生されるストリームに、再生装置20が有する機能において合成可能な音声データが含まれているか否かによって決まる。
By the way, the reproducing
以下、主に再生出力される音声データをオーディオストリーム#1と称し、例えば、ユーザの操作入力に対応して発生するクリック音や効果音など、上述したAUXDATAディレクトリにsound.bdmvとして記載されている音声データをサウンドデータと称するものとする。サウンドデータはオーディオストリーム#1に合成可能である。また、オーディオストリーム#1とは別のストリームであって、例えば、副音声など、オーディオストリーム#1に合成可能な音声データをオーディオストリーム#2と称するものとする。なお、オーディオストリーム#1とは別のストリームであって、オーディオストリーム#1に合成可能な音声データは、オーディオストリーム#2以外にも、複数存在してもよく、その場合、例えば、オーディオストリーム#3、オーディオストリーム#4・・・などとして、それぞれ、区別可能なようにすればよい。
Hereinafter, the audio data mainly played back and output is referred to as
オーディオストリーム#1が圧縮符号化データとして出力される場合であっても、オーディオストリーム#2やサウンドデータとの音声合成が行われる場合、オーディオストリーム#1は、一旦復号され、合成処理が行われた後、再エンコードされて出力される。これに対して、オーディオストリーム#1が圧縮符号化データとして出力され、オーディオストリーム#2やサウンドデータとの音声合成が行われない場合、オーディオストリーム#1は、デコードされずにそのまま出力されるほうが、音質が劣化せず、好適である。
Even when
したがって、再生装置20においては、オーディオストリーム#1に対して復号処理を施すか否かを決定するために、出力の形態と、このデータファイルに含まれている音声データの種別(オーディオストリーム#1に合成される他の音声データが含まれているか否か)を認識する必要がある。このため、再生装置20によって再生可能なデータファイルには、サウンドデータが含まれているか否かを示すフラグや、オーディオストリーム#2が含まれているか否かを示すフラグが所定の位置に記載されている。
Therefore, in the
なお、オーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載される位置としては、例えば、Indexファイル、プレイリスト(PlayList)ファイル、プレイアイテム(PlayItem)などがある。これらのフラグがIndexファイルに記載されている場合、図8を用いて説明したデータ構造に含まれる全てのデータの再生において、オーディオストリーム#1に合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定される。同様に、これらのフラグがプレイリストに記載されている場合、対応するプレイリストを基に再生されるデータに含まれるオーディオストリーム#1に対して合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定され、これらのフラグがプレイアイテムに記載されている場合、対応するプレイアイテムに対応するクリップにオーディオストリーム#1に対して合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定される。
Note that the position where the flag indicating whether or not other audio data to be synthesized is included in the
Indexファイル(Index.bdmv)のシンタクスを図9に示す。 FIG. 9 shows the syntax of the Index file (Index.bdmv).
Type_indicatorは、ISO646に基づいて符号化された"INDX"の値が記述されるフィールドである。 Type_indicator is a field in which the value of “INDX” encoded based on ISO646 is described.
version_numberは、Index.bdmvのバージョンナンバーを示す4文字の文字列であり、ISO646に基づいて符号化された"0089"の値が記述される。 The version_number is a 4-character string indicating the version number of Index.bdmv, and a value “0089” encoded based on ISO646 is described.
Indexes_start_addressは、Indexes()ブロックのスタートアドレスが記載されるフィールドである。 Indexes_start_address is a field in which the start address of the Indexes () block is described.
AppInfoBDMV()には、このIndexファイルを含むデータファイルの供給元を示す、個別の識別子などが記載されている。 In AppInfoBDMV (), an individual identifier indicating the supply source of the data file including this Index file is described.
Indexes()には、例えば、メニューを読み出したり、タイトルを検索したり、所定のタイトルにジャンプしたり、または、このIndexファイルを含むデータファイルが記録されている光ディスクなどの記録媒体21が再生装置20に装着された場合に自動的に起動する処理を実行するアプリケーション(NavigationObject)とのリンクが記載されている。Indexes()のシンタクスについては、図10乃至図12を用いて後述する。
Indexes () includes, for example, a
Padding_wordは、Index.bdmvのシンタクスに基づいて挿入されるものであり、0または正の整数で表される。 Padding_word is inserted based on the syntax of Index.bdmv, and is represented by 0 or a positive integer.
Indexes()のシンタクスの第1の例を、図10に示す。図10は、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていない場合のシンタクスである。
A first example of the syntax of Indexes () is shown in FIG. FIG. 10 shows the syntax when the flag referred to by Indexes () does not contain a flag indicating whether other audio data to be combined with the
lengthは、Indexes()に何バイトの情報が記載されているかを表すフィールドである。 The length is a field indicating how many bytes of information are described in Indexes ().
FirstPlaybackは、このファイルシステムのデータが再生される場合に最初に実行されるNavigationObjectに関する情報が含まれているデータブロックである。具体的には、このファイルシステムのデータが記録された光ディスクなどの記録媒体21が再生装置20に装着されたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれているデータブロックである。
FirstPlayback is a data block that includes information related to a NavigationObject that is executed first when data of this file system is reproduced. Specifically, it is a data block that includes information related to a NavigationObject that is automatically executed first when a
FirstPlayback_mobj_id_refは、最初に実行されるNavigationObjectのmobj_idの値を指定するためのフィールドである。mobj_idは、NavigationObjectがそれぞれ固有に与えられているIDである。また、再生開始時に自動的に実行されるNavigationObjectが設定されない場合、すなわち、再生開始時にはアプリケーションはいずれも実行されず、ユーザによる指令を受けて、いずれかのアプリケーションが実行されるようになされている場合、このフィールドには、"0Xffff"が記載される。 FirstPlayback_mobj_id_ref is a field for designating the value of mobj_id of the NavigationObject that is executed first. mobj_id is an ID to which NavigationObject is uniquely given. Also, if the NavigationObject that is automatically executed at the start of playback is not set, that is, no application is executed at the start of playback, and any application is executed in response to an instruction from the user. In this case, “0Xffff” is described in this field.
TopMenu()は、ユーザがメニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれているデータブロックである。 TopMenu () is a data block that includes information related to NavigationObject of TopMenu that is called when the user displays a menu screen.
TopMenu_mobj_id_refは、TopMenuのNavigationObjectのmobj_idの値を指定するためのフィールドである。TopMenuが設定されない場合、このフィールドには、"0xFFFF"が記載される。 TopMenu_mobj_id_ref is a field for designating the value of mobj_id of NavigationObject of TopMenu. When TopMenu is not set, “0xFFFF” is described in this field.
number_of_Titlesは、Indexes()に記載されているタイトルの数を表すフィールドである。 number_of_Titles is a field representing the number of titles described in Indexes ().
Title[title_id]()は、title_idによって固有に区別されているそれぞれのタイトルに関する情報が記載されるブロックである。title_idは0から割り当てられる。 Title [title_id] () is a block in which information about each title uniquely distinguished by title_id is described. title_id is assigned from 0.
Title_playback_type[title_id]は、そのtitle_idによって指定されるタイトルの再生タイプを示す情報であり、例えば、再生される動画と音声による一般的なコンテンツであるMovie Titleか、ユーザの操作入力によって再生される動画や音声が変更されるなどの双方向のやり取りが可能なコンテンツであるInteractive Titleなどのタイプが示される。例えば、そのタイトルがMovie Titleである場合、PlayListに基づいた再生処理が実行される。 Title_playback_type [title_id] is information indicating the playback type of the title specified by the title_id, for example, a movie title that is a general content with a video to be played and audio, or a video that is played by user operation input And Interactive Title, which is a content that can be interactively exchanged, such as a change in voice or sound. For example, when the title is Movie Title, playback processing based on PlayList is executed.
Title_access_type[title_id]は、そのtitle_idによって指定されるタイトルが、Title_Searchを用いて再生することが許可されているか否かを示す情報である。 Title_access_type [title_id] is information indicating whether or not the title specified by the title_id is permitted to be reproduced using Title_Search.
reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている29ビットのフィールドである。 reserved_for_future_use is a 29-bit field whose data description content is not set in preparation for future expansion.
Title_mobj_id_ref[title_id]は、そのtitle_idによって指定されるタイトルがエントリーされているNavigationObjectのmobj_idの値を指定するためのフィールドである。 Title_mobj_id_ref [title_id] is a field for specifying the value of mobj_id of the NavigationObject in which the title specified by the title_id is entered.
次に、Indexes()のシンタクスの第2の例を、図11に示す。図11の例においては、Indexes()により参照されるデータには、サウンドデータのみ合成される(オーディオストリーム#2は含まれていない)ようになされている場合のものであるから、Index()には、Indexes()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。
Next, FIG. 11 shows a second example of the syntax of Indexes (). In the example of FIG. 11, since the data referred to by Indexes () is synthesized with only sound data (
図11に示されるIndexes()のシンタクスの第2の例においては、Indexes()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが29ビットから28ビットに変更されている以外は、図10を用いて説明したIndexes()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、Indexes()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータまたはオーディオストリーム#2のうちの少なくともいずれかが含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。
In the second example of the Indexes () syntax shown in FIG. 11, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referenced by Indexes (), is newly described. , Except that reserved_for_future_use is changed from 29 bits to 28 bits, it has the same configuration as that of the first example of the syntax of Indexes () described with reference to FIG. Note that this is_MixApp is defined as a flag indicating whether or not the data referred to by Indexes () includes at least one of sound data or
次に、Indexes()のシンタクスの第3の例を、図12に示す。図12の例においては、Index()には、Indexes()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとの2種類が記載されている。
Next, FIG. 12 shows a third example of the syntax of Indexes (). In the example of FIG. 12, Index () is combined with
図12に示されるIndexes()のシンタクスの第3の例においては、Indexes()により参照されるデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、Indexes()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが29ビットから27ビットに変更されている以外は、図10を用いて説明したIndexes()のシンタクスの第1の例と同様の構成を有している。
In the third example of the Indexes () syntax shown in FIG. 12, is_MixApp_1, which is a 1-bit flag indicating whether or not the
また、オーディオストリーム#1に合成すべきデータ(オーディオストリーム#2、またはサウンドデータのうちの少なくともいずれか)がIndexes()により参照されるデータに含まれているか否かを示すフラグではなく、合成処理が行われ得るか、行われないかを示すフラグを定義するものとしても良い。この場合には、定義されるフラグは、再生順を管理するIndex,PlayList等に基づいて再生を行うときに、合成データがそのPlayListに対して適用され得るか、または、適用されないかを示すフラグとなる。
Also, it is not a flag indicating whether or not the data to be synthesized with the audio stream # 1 (at least one of the
図13に、PlayListファイルのデータ構造を示す。PlayListファイルは、再生装置20に装着された記録媒体、または、再生装置20内部の記憶部(例えば、ハードディスクなどからなるローカルストレージ)において、PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するデータファイルである。
FIG. 13 shows the data structure of the PlayList file. The PlayList file has an extension “.mpls” stored in the PLAYLIST directory in a recording medium attached to the
type_indicatorは、このファイルの種類を示す情報が記載されているものである。すなわち、このフィールドには、このファイルの種類が映像の再生を管理する再生管理情報であるPlayList(MoviePlayList)であることを示す情報が記載される。 type_indicator describes information indicating the type of the file. That is, in this field, information indicating that this file type is PlayList (MoviePlayList) that is playback management information for managing video playback.
version_numberは、このxxxx.mpls(MoviePlayList)のバージョンナンバーを示す4個のキャラクター文字を示すものである。 version_number indicates four character characters indicating the version number of xxxx.mpls (MoviePlayList).
PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示すものである。 PlayList_start_address indicates the start address of PlayList () with the relative number of bytes from the start byte of the PlayList file as a unit.
PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示すものである。 PlayListMark_start_address indicates the head address of PlayListMark () with the relative number of bytes from the head byte of the PlayList file as a unit.
ExtensionData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、ExtensionData()の先頭アドレスを示すものである。 ExtensionData_start_address indicates the start address of ExtensionData () in units of the relative number of bytes from the start byte of the PlayList file.
AppInfoPlayList()には、例えば、再生制限など、PlayListの再生コントロールに関するパラメータが格納されている。AppInfoPlayList()の詳細については、図14または図15を用いて後述する。 AppInfoPlayList () stores parameters related to playback control of the PlayList, such as playback restrictions. Details of AppInfoPlayList () will be described later with reference to FIG. 14 or FIG.
PlayList()には、PlayListのメインパスやサブパスなどに関するパラメータが格納されている。PlayList()の詳細は、図16乃至図18を用いて後述する。 PlayList () stores parameters related to the main path and sub path of the PlayList. Details of PlayList () will be described later with reference to FIGS. 16 to 18.
PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納されている。 PlayListMark () stores PlayList mark information, that is, information about a mark that is a jump destination (jump point) in a user operation or command that commands chapter jump or the like.
ExtensionData()には、プライベートデータが挿入できるようになっている。 Private data can be inserted into ExtensionData ().
次に、図14を参照して、AppInfoPlayList()の第1の例について説明する。図14のAppInfoPlayList()は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていない場合に適用することができる。
Next, a first example of AppInfoPlayList () will be described with reference to FIG. In the AppInfoPlayList () of FIG. 14, when Indexes () is the one described with reference to FIG. 10, that is, the data referred to by Indexes () includes other audio data synthesized with the
lengthは、length以下のシンタックスの長さ、すなわち、このlengthフィールドの直後からreserved_for_future_useの最後までのAppInfoPlayList()のバイト数を示すものである。このlengthの後には、8ビットのreserved_for_future_useが用意される。 The length indicates a syntax length equal to or less than length, that is, the number of bytes of AppInfoPlayList () from immediately after this length field to the end of reserved_for_future_use. After this length, 8-bit reserved_for_future_use is prepared.
Playlist_playback_typeは、連続再生、ランダムアクセス、シャッフルのいずれの再生を行うPlaylistであるかを示す情報を記載するフィールドである。 Playlist_playback_type is a field that describes information indicating whether the playlist is to be played back continuously, randomly accessed, or shuffled.
Playback_countは、ランダムアクセス、シャッフルを行うPlayListの場合、再生に用いるPlayItemの数を示す情報を記載するフィールドである。 Playback_count is a field that describes information indicating the number of PlayItems used for playback in the case of a PlayList that performs random access and shuffle.
そして、UO_mask_table()は、一時停止、チャプタサーチ、ジャンプ、早送り、早戻し(後方高速再生)等の特殊再生、または、表示等に関するユーザ操作の制限を決める情報である。 UO_mask_table () is information that determines restrictions on user operations related to special playback such as pause, chapter search, jump, fast forward, fast reverse (backward fast playback), or display.
そして、PlayList_random_access_flagは、他のPlayListからのジャンプ再生を制御するためのフラグ情報である。ここでは、PlayList_random_access_flag=1に設定されている場合、他のPlayListからのジャンプ再生を禁止するものとする。 PlayList_random_access_flag is flag information for controlling jump playback from another PlayList. Here, when PlayList_random_access_flag = 1 is set, jump playback from another PlayList is prohibited.
例えば、再生装置20においては、例えば、現在のPlayListにより参照されている再生位置から、他のPlayListにより参照される所定のPlayItemの先頭またはチャプタの位置への再生位置のジャンプを指令するユーザオペレーションなど、装置独自で拡張的なユーザオペレーションを用意することができる。PlayList_random_access_flagは、例えば、これらのユーザオペレーションにより、他のPlayListによって参照されるClip AV Streamのある再生位置から、このPlayListによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。
For example, in the
なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayList_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。 Note that when a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, the PlayList_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).
Is_MixAppは、このPlaylistファイルにより再生されるストリームが音声や効果音の合成を行うか否かのフラグである。すなわち、このis_MixAppは、このPlayListにより参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義されている。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。
Is_MixApp is a flag indicating whether or not the stream reproduced by the Playlist file performs synthesis of sound and sound effects. That is, this is_MixApp is defined as a flag indicating whether or not the data referred to by this PlayList includes sound data that can be synthesized with the
また、Lossless_may_bypass_mixer_flagは、ロスレスの音声の再生に関するフラグである。この後には、13ビットのreserved_for_future_useが用意される。 Lossless_may_bypass_mixer_flag is a flag relating to the reproduction of lossless audio. After this, 13-bit reserved_for_future_use is prepared.
図10に示されるように、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndexes()に記載されていない場合においては、図14を用いて説明したように、AppInfoPlayList()にIs_MixAppを記載し、このPlaylistが音声や効果音の合成を行うか否かを示すようにしてもよいが、例えば、AppInfoPlayList()にIs_MixAppを記載するのではなく、PlayList()またはPlayItemにIs_MixAppを記載するものとしてもよい。
As shown in FIG. 10, in the case where a flag indicating whether or not other audio data to be synthesized with the
次に、図15を参照して、AppInfoPlayList()の第2の例について説明する。 Next, a second example of AppInfoPlayList () will be described with reference to FIG.
図15に示されるAppInfoPlayList()の第2の例は、このPlaylistが音声や効果音の合成を行うか否かのフラグであるIs_MixAppが記載されていないこと以外は、図14を用いて説明したAppInfoPlayList()の第1の例と同様の構成を有している。すなわち、図15のAppInfoPlayList()の第2の例は、Indexes()が、図10を用いて説明したものであるが、Is_MixAppなどのフラグが、後述するPlayList()またはPlayItemに記載されているとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されず、PlayList()またはPlayItemにIs_MixAppが記載される場合、または、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されている場合に適用される。
The second example of AppInfoPlayList () shown in FIG. 15 has been described with reference to FIG. 14 except that Is_MixApp, which is a flag indicating whether or not this playlist synthesizes sound and sound effects, is not described. It has the same configuration as the first example of AppInfoPlayList (). That is, in the second example of AppInfoPlayList () in FIG. 15, Indexes () is described with reference to FIG. 10, but flags such as Is_MixApp are described in PlayList () or PlayItem described later. That is, a flag indicating whether or not other audio data to be synthesized with the
次に、図16は、PlayList()のシンタクスの第1の例を示す図である。図16は、オーディオストリーム#1に合成される他の音声データがこのプレイリストを参照することにより再生されるデータに含まれているか否かのフラグがPlayList()に記載されていない場合のシンタクスである。
Next, FIG. 16 is a diagram illustrating a first example of the syntax of PlayList (). FIG. 16 shows a syntax in the case where a flag indicating whether or not other audio data synthesized with the
すなわち、図16の、PlayList()のシンタクスの第1の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていないが、後述するPlayItemに記載されている場合、または、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されている場合に適用される。
That is, the first example of the syntax of PlayList () in FIG. 16 is that when Indexes () is the one described with reference to FIG. 10, that is,
lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図5の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図5および図7に示されるように、PlayItem_id=0,1,2が割り振られる。 length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 5, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIGS. 5 and 7, PlayItem_id = 0, 1, and 2 are allocated.
number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図5の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図5に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。 number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 5, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 5, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.
次に、図17は、PlayList()のシンタクスの第2の例を示す図である。図17の例においては、このプレイリストを参照することにより再生されるオーディオストリームは、オーディオストリーム#1のみであり(オーディオストリーム#2は含まれていない)、PlayList()には、PlayList()を参照して再生されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。
Next, FIG. 17 is a diagram illustrating a second example of the syntax of PlayList (). In the example of FIG. 17, the audio stream reproduced by referring to this playlist is only the audio stream # 1 (the
すなわち、図17の、PlayList()のシンタクスの第2の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、かつ、後述するPlayItemにもフラグが記載されていない場合に適用される。
That is, the second example of the syntax of PlayList () in FIG. 17 is that when Indexes () is the one described with reference to FIG. 10, that is,
図17に示されるPlayList()のシンタクスの第2の例においては、PlayList()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが16ビットから15ビットに変更されている以外は、図16を用いて説明したPlayList()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、Playlist()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。
In the second example of the syntax of PlayList () shown in FIG. 17, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referred to by PlayList (), is newly described. , Except that reserved_for_future_use is changed from 16 bits to 15 bits, it has the same configuration as the first example of the syntax of PlayList () described with reference to FIG. Note that this is_MixApp may be defined as a flag indicating whether or not the data referred to by Playlist () includes sound data that can be combined with the
次に、PlayList()のシンタクスの第3の例を、図18に示す。図18の例においては、PlayList()には、PlayList()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとが記載されている。
Next, a third example of the syntax of PlayList () is shown in FIG. In the example of FIG. 18, PlayList () is combined with
すなわち、図18の、PlayList()のシンタクスの第3の例も、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、かつ、後述するPlayItemにもフラグが記載されていない場合に適用される。
That is, in the third example of the syntax of PlayList () in FIG. 18, when Indexes () is the same as that described with reference to FIG. 10, that is, the
図18に示されるPlayList()のシンタクスの第3の例においては、PlayList()により参照されるデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、PlayList()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが16ビットから14ビットに変更されている以外は、図16を用いて説明したPlayList()のシンタクスの第1の例と同様の構成を有している。
In the third example of the PlayList () syntax shown in FIG. 18, is_MixApp_1 that is a 1-bit flag indicating whether or not the
図19は、SubPath()のシンタクスの例を示す図である。 FIG. 19 is a diagram illustrating an example of the syntax of SubPath ().
lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeについては、図20を参照して後述する。SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図5のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。 length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. This SubPath_type will be described later with reference to FIG. 15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that specifies the SubPath playback method, and indicates whether the SubPath playback is repeated during playback of the main path or the SubPath playback is performed only once. For example, it is used when the playback timing of the clip specified by the main AV stream and the sub path is different (for example, when the main path is used as a still image slide show and the sub path audio path is used as the main path BGM). . 8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 in FIG. 5 and two SubPlayItems with SubPath_id = 1. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.
図20は、SubPath_type(サブパスのタイプ)の例を説明する図である。すなわち、SubPathの種類は、例えば、図20に示されるように定義されている。 FIG. 20 is a diagram illustrating an example of SubPath_type (subpath type). That is, the type of SubPath is defined as shown in FIG. 20, for example.
図20において、SubPath_type=0,1は、reservedとされている。SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期であることを示している。 In FIG. 20, SubPath_type = 0, 1 is reserved. SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 indicates that in the playlist, the audio presentation path referred to by the sub path and the main path referred to by the play item are asynchronous.
SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期であることを示している。 SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 indicates that in the playlist, the interactive graphics menu referenced by the sub path and the main path referenced by the play item are asynchronous.
SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。 SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 indicates that in the playlist, the text subtitle presentation path referenced by the sub path and the main path referenced by the play item are synchronized.
SubPath_type=5は、2nd Audio Presentation path(2番目のオーディオプレゼンテーションパス)(2ndオーディオストリームを参照するためのパス)とされている。具体的には、SubPath_type=5は、プレイリストの中において、サブパスで参照される2番目のオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)オーディオストリームは、映画に対する監督のコメント(音声)である。図7に示されるようなSubpath_idの場合、図19のSubPath_typeは、このSubPath_type=5となる。 SubPath_type = 5 is 2nd Audio Presentation path (second audio presentation path) (path for referring to the 2nd audio stream). Specifically, SubPath_type = 5 indicates that in the playlist, the second audio presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) audio stream referenced in this subpath is a director's comment (voice) on the movie. In the case of Subpath_id as shown in FIG. 7, SubPath_type in FIG. 19 is SubPath_type = 5.
SubPath_type=6は、2nd Video Presentation path(2番目のビデオプレゼンテーションパス)(2ndビデオストリームを参照するためのパス)とされている。具体的には、SubPath_type=6は、プレイリストの中において、サブパスで参照される2番目のビデオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)ビデオストリームは、映画に対する監督のコメント(動画像)である。 SubPath_type = 6 is 2nd Video Presentation path (second video presentation path) (path for referring to the 2nd video stream). Specifically, SubPath_type = 6 indicates that in the playlist, the second video presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) video stream referred to in this sub-path is a director's comment (moving image) for the movie.
SubPath_type=7乃至255は、reservedとされている。 SubPath_type = 7 to 255 is reserved.
図21は、SubPlayItem(i)のシンタクスを示す図である。 FIG. 21 is a diagram illustrating the syntax of SubPlayItem (i).
lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。 The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().
図21においては、SubPlayItemが1つのClip を参照する場合と、複数のClip を参照する場合に分けられている。 In FIG. 21, SubPlayItem is divided into a case of referring to one Clip and a case of referring to a plurality of Clips.
最初に、SubPlayItemが1つのClipを参照する場合について説明する。 First, a case where SubPlayItem refers to one Clip will be described.
SubPlayItemには、Clipを指定するためのClip_Information_file_name[0]が含まれる。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。このsync_PlayItem_id と sync_start_PTS_of_PlayItemは、上述したように、図6と図7の場合(メインAVストリームとサブパスにより示されるファイルの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。 SubPlayItem includes Clip_Information_file_name [0] for designating a Clip. In addition, Clip_codec_identifier [0] that specifies the codec method of Clip, reserved_for_future_use, is_multi_Clip_entries that indicates the presence or absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts to be played on the time axis of the main path. As described above, the sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 6 and 7 (when the playback timing of the file indicated by the main AV stream and the sub path is the same), and the file indicated by the main AV stream and the sub path. Are not used (for example, when the still image referred to by the main path and the audio referred to by the sub path are not synchronized as in the BGM of a slide show composed of still images). Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.
次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図7に示されるように、SubPlayItemが複数のClip を参照する場合を示す。 Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 7, a case where SubPlayItem refers to a plurality of Clips is shown.
num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーデック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。 num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec method of Clip, ref_to_STC_id [SubClip_entry_id] that is information related to STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.
なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図7の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。 Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 7, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is timeSubPlayItem_id Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.
ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。 Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.
図22は、PlayItem()のシンタクスの第1の例を示す図である。図22は、オーディオストリーム#1に合成される他の音声データが、このPlayItem()に対応するデータに含まれているか否かのフラグが記載されていない場合のシンタクスである。
FIG. 22 is a diagram illustrating a first example of the syntax of PlayItem (). FIG. 22 shows the syntax in the case where the flag indicating whether or not the other audio data synthesized with the
すなわち、図22の、PlayItem()のシンタクスの第1の例は、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されているか、AppInfoPlayList()が図14を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されているか、もしくは、PlayList()が図17または図18を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されている場合に適用される。
That is, the first example of the PlayItem () syntax in FIG. 22 is that when Indexes () is the one described with reference to FIG. 11 or FIG. When the flag indicating whether or not other audio data to be synthesized is included in the
lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図6の例の場合、Clip_Information_file_ name[0]により、メインAVストリームが参照される。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、将来の拡張に備えるためにデータの記述内容が未設定とされている11ビットのreserved_for_future_use、マルチアングル再生に対応しているか否かを示すフラグであるis_multi_angleを含み、更に、connection_conditionや、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。さらに、Clipの中のPlayItemの再生区間を指定するためのIN_time と OUT_timeを含む。図6の例の場合、IN_time と OUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。また、UO_mask_table()、PlayItem_random_access_mode、still_modeを含む。is_multi_angleが複数ある場合については、本発明と直接的には関係ないのでその説明を省略する。 length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 6, the main AV stream is referred to by Clip_Information_file_name [0]. Also, Clip_codec_identifier [0] that specifies the codec format of Clip, 11-bit reserved_for_future_use in which the data description content is not set in preparation for future expansion, and a flag indicating whether or not multi-angle playback is supported Is_multi_angle, and further includes connection_condition and ref_to_STC_id [0] which is information on STC discontinuity (system time base discontinuity). Furthermore, IN_time and OUT_time for specifying the playback section of PlayItem in Clip are included. In the example of FIG. 6, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time. Also, UO_mask_table (), PlayItem_random_access_mode, and still_mode are included. The case where there are a plurality of is_multi_angles is not directly related to the present invention, and the description thereof will be omitted.
PlayItem()の中のSTN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipsの中から選ぶことができる仕組みを提供するものである。また、STN_table()は、2つのオーディオストリームのミキシング再生を選ぶことができる仕組みを提供するものである。 STN_table () in PlayItem () refers to the PlayItem's operations such as audio switching and subtitle switching when the target PlayItem and one or more SubPaths to be played back are prepared. It provides a mechanism that allows the user to select from Clips and Clips referenced by one or more of these SubPaths. STN_table () provides a mechanism that allows selection of mixing reproduction of two audio streams.
次に、図23は、PlayItem()のシンタクスの第2の例を示す図である。図23の例においては、このPlayItem()に対応するデータにオーディオストリーム#2は含まれておらず、PlayItem()には、PlayItem()に対応するデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。
Next, FIG. 23 is a diagram illustrating a second example of the syntax of PlayItem (). In the example of FIG. 23, the
すなわち、図23の、PlayItem()のシンタクスの第2の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、AppInfoPlayList()が図15を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されておらず、PlayList()が図16を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されていない場合に適用される。
That is, the second example of the syntax of PlayItem () in FIG. 23 is that when Indexes () is the one described with reference to FIG. 10, that is, the
図23に示されるPlayItem()のシンタクスの第2の例においては、PlayItem()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが11ビットから10ビットに変更されている以外は、図22を用いて説明したPlayItem()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、PlayItem()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。
In the second example of the PlayItem () syntax shown in FIG. 23, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referred to by PlayItem (), is newly described. , Except that reserved_for_future_use is changed from 11 bits to 10 bits, it has the same configuration as the first example of the syntax of PlayItem () described with reference to FIG. Note that this is_MixApp may be defined as a flag indicating whether or not the data referred to by PlayItem () includes sound data that can be synthesized with the
次に、PlayItem()のシンタクスの第3の例を、図24に示す。図24の例においては、PlayItem()には、PlayItem()に対応するデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとが記載されている。
Next, a third example of the PlayItem () syntax is shown in FIG. In the example of FIG. 24, PlayItem () is combined with
すなわち、図24の、PlayItem()のシンタクスの第3の例も、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、AppInfoPlayList()が図15を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されておらず、PlayList()が図16を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されていない場合に適用される。
That is, in the third example of the PlayItem () syntax in FIG. 24, when Indexes () is the same as that described with reference to FIG. 10, that is, the
図24に示されるPlayItem()のシンタクスの第3の例においては、PlayItem()に対応するデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、PlayItem()に対応するデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが11ビットから9ビットに変更されている以外は、図22を用いて説明したPlayItem()のシンタクスの第1の例と同様の構成を有している。
In the third example of the PlayItem () syntax shown in FIG. 24, is_MixApp_1 which is a 1-bit flag indicating whether or not the
図25は、STN_table()のシンタクスを示す図である。STN_table()は、PlayItemの属性として設定されている。 FIG. 25 is a diagram illustrating the syntax of STN_table (). STN_table () is set as an attribute of PlayItem.
lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。number_of_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_idが与えられるストリーム数を示す。video_stream_idは、ビデオストリームを識別するための情報であり、video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。 length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length. number_of_video_stream_entries indicates the number of streams to which video_stream_id entered (registered) in STN_table () is given. video_stream_id is information for identifying a video stream, and video_stream_number is a video stream number that is used for video switching and is visible to the user.
number_of_audio_stream_entriesは、STN_table()の中でエントリーされるaudio_stream_idが与えられる1番目のオーディオストリームのストリーム数を示す。audio_stream_idは、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。number_of_audio_stream2_entriesは、STN_table()の中でエントリーされるaudio_stream_id2が与えられる2番目のオーディオストリームのストリーム数を示す。audio_stream_id2は、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。具体的には、STN_table()でエントリーされるnumber_of_audio_stream_entriesのオーディオストリームは、後述する図28の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリームであり、STN_table()でエントリーされるnumber_of_audio_stream2_entriesのオーディオストリームは、後述する図28の再生装置20の2ndオーディオデコーダ75−2でデコードされるオーディオストリームである。このように、図25のSTN_table()では、2つのオーディオデコーダのそれぞれにデコードさせるオーディオストリームをエントリーすることができる。
number_of_audio_stream_entries indicates the number of streams of the first audio stream to which audio_stream_id entered in STN_table () is given. The audio_stream_id is information for identifying the audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. number_of_audio_stream2_entries indicates the number of streams of the second audio stream to which audio_stream_id2 entered in STN_table () is given. The audio_stream_id2 is information for identifying an audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. Specifically, the number_of_audio_stream_entries audio stream entered in STN_table () is an audio stream decoded by the 1st audio decoder 75-1 of the
なお、以下において、図28の再生装置20の1stオーディオデコーダ75−1でデコードされるnumber_of_audio_stream_entriesのオーディオストリームをオーディオストリーム#1と称し、図28の再生装置20の2ndオーディオデコーダ75−2でデコードされるnumber_of_audio_stream2_entriesのオーディオストリームをオーディオストリーム#2と称する。また、オーディオストリーム#1は、オーディオストリーム#2よりも優先されるオーディオストリームであるものとする。
In the following, the audio stream of number_of_audio_stream_entries decoded by the 1st audio decoder 75-1 of the
number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。 number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.
number_of_IG_stream_entriesは、STN_table()の中でエントリーされる IG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。 number_of_IG_stream_entries indicates the number of streams provided with IG_stream_id entered in STN_table (). In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.
ここで、stream_entry()のシンタクスについて図26を参照して説明する。 Here, the syntax of stream_entry () will be described with reference to FIG.
lengthは、このlengthフィールドの直後からstream_entry ()の最後までのバイト数を示す8ビットの符号なし整数である。typeは、上述したストリーム番号が与えられるストリームを一意に特定するために必要な情報の種類を示す8ビットのフィールドである。 length is an 8-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_entry (). type is an 8-bit field indicating the type of information necessary to uniquely specify the stream to which the above-described stream number is given.
type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。 In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.
type=2では、SubPathが一度に複数個のClipsを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。 In type = 2, when SubPath refers to multiple Clips at a time and each Clip multiplexes multiple elementary streams, multiple elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.
このように、type(type=1とtype=2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。 In this way, by using type (two types of type = 1 and type = 2), when PlayItem and one or more SubPaths to be played back are prepared, this PlayItem refers to One elementary stream can be identified from Clips referenced by Clip and one or more SubPaths. Note that type = 1 indicates a clip (main clip) referred to by the main path, and type = 2 indicates a clip (sub clip) referred to by the sub path.
図25のSTN_table()の説明に戻って、ビデオストリームID (video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からvideo_stream_idが与えられる。なお、ビデオストリームID(video_stream_id)の代わりに、ビデオストリーム番号(video_stream_number)を用いるようにしてもよい。この場合、video_stream_numberは、0ではなく1から与えられる。すなわち、video_stream_idの値に1を加算したものがvideo_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。 Returning to the description of STN_table () in FIG. 25, video_stream_id is given from 0 to one video elementary stream that is identified for each stream_entry () in turn in the for loop of the video stream ID (video_stream_id). Note that a video stream number (video_stream_number) may be used instead of the video stream ID (video_stream_id). In this case, video_stream_number is given from 1 instead of 0. That is, video_stream_number is obtained by adding 1 to the value of video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.
同様に、オーディオストリームID (audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。この場合、audio_stream_numberは、0ではなく1から与えられる。すなわち、audio_stream_idの値に1を加算したものがaudio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。 Similarly, in the for loop of the audio stream ID (audio_stream_id), audio_stream_id is given from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id). In this case, audio_stream_number is given from 1 instead of 0. That is, audio_stream_number is obtained by adding 1 to the value of audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.
同様に、オーディオストリームID2 (audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。この場合、audio_stream_number2は、0ではなく1から与えられる。すなわち、audio_stream_id2の値に1を加算したものがaudio_stream_number2である。オーディオストリーム番号2は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号2であるので、1から定義される。
Similarly, audio_stream_id2 is given from 0 to one audio elementary stream specified for each stream_entry () in order in the for loop of the audio stream ID2 (audio_stream_id2). As in the case of the video stream, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). In this case, audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number2 is obtained by adding 1 to the value of audio_stream_id2. The
すなわち、図25のSTN_table()においては、number_of_audio_stream_entries(オーディオストリーム#1)のオーディオストリームと、number_of_audio_stream2_entries(オーディオストリーム#2)のオーディオストリームとが定義される。換言すれば、STN_table()を用いて、オーディオストリーム#1とオーディオストリーム#2とをエントリーすることができるので、ユーザは、同期して再生するオーディオストリームを2本選択することができる。
That is, in STN_table () of FIG. 25, an audio stream of number_of_audio_stream_entries (audio stream # 1) and an audio stream of number_of_audio_stream2_entries (audio stream # 2) are defined. In other words, since the
同様に、字幕ストリームID (PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。なお、ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。 Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.
同様に、グラフィックスストリームID (IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。 Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is identified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.
次に、図25のSTN_table()のstream_attribute()について説明する。 Next, stream_attribute () of STN_table () in FIG. 25 will be described.
reserved_for_future_useの後のfor文では、video streamの分だけvideo streamが参照され、このデータの提供者(例えば、記録媒体21の製造者など)が、オーディオストリームに対してMain PathおよびSub Pathを設定した分だけaudio streamが参照され、PG textST streamの分だけPG textST streamが参照され、IG streamの分だけIG streamが参照される。 In the for statement after reserved_for_future_use, the video stream is referred to as much as the video stream, and the provider of this data (for example, the manufacturer of the recording medium 21) sets the Main Path and Sub Path for the audio stream. The audio stream is referenced by the amount, the PG textST stream is referenced by the amount of the PG textST stream, and the IG stream is referenced by the amount of the IG stream.
ビデオストリームID (video_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報が記述されている。 The stream_attribute () in the for loop of the video stream ID (video_stream_id) gives stream attribute information of one video elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one video elementary stream specified for each stream_entry () is described.
同様に、オーディオストリームID(audio_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図26のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。 Similarly, stream_attribute () in the for loop of the audio stream ID (audio_stream_id) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 26, stream_attribute () gives stream attribute information of that one audio elementary stream.
同様に、オーディオストリームID2(audio_stream_id2)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図26のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。 Similarly, stream_attribute () in the for loop of audio stream ID2 (audio_stream_id2) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 26, stream_attribute () gives stream attribute information of that one audio elementary stream.
同様に、字幕ストリームID(PG_txtST_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕エレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームのストリーム属性情報が記述されている。 Similarly, stream_attribute () in the for loop of the subtitle stream ID (PG_txtST_stream_id) gives stream attribute information of one bitmap subtitle elementary stream or text subtitle elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one bitmap subtitle elementary stream specified for each stream_entry () is described.
同様に、グラフィックスストリームID(IG_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報が記述されている。 Similarly, stream_attribute () in the for loop of the graphics stream ID (IG_stream_id) gives stream attribute information of one interactive graphics elementary stream specified for each stream_entry (). That is, stream attribute information of one interactive graphics elementary stream specified for each stream_entry () is described in the stream_attribute ().
ここで、stream_attribute()のシンタクスについて図27を参照して説明する。 Here, the syntax of stream_attribute () will be described with reference to FIG.
lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。 The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().
stream_coding_typeは、図28に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream、HDMV LPCM audio、Dolby AC-3 audio、dts audio、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。 As shown in FIG. 28, stream_coding_type indicates the encoding type of the elementary stream. As encoding types of elementary streams, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, and Text subtitle stream are described.
video_formatは、図29に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。 video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.
frame_rateは、図30に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。 As shown in FIG. 30, frame_rate indicates the frame rate of the video elementary stream. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.
aspect_ratioは、図31に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。 The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.
audio_presentation_typeは、図32に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。 audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.
sampling_frequencyは、図33に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。 Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.
audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).
PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.
IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.
textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。 textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.
character_codeは、図34に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。
Character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including
以下に、図27のstream_attribute()のシンタクスについて、図27と、図28乃至図34を用いて具体的に説明する。 Hereinafter, the syntax of the stream_attribute () in FIG. 27 will be specifically described with reference to FIGS. 27 and 28 to 34.
エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がMPEG-2 video stream(図28)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図29)、フレームレート(図30)、およびアスペクト比情報(図31)が含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is an MPEG-2 video stream (FIG. 28), the stream_attribute () includes the video format (FIG. 29) and the frame rate (FIG. 30) of the elementary stream. ), And aspect ratio information (FIG. 31).
エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がHDMV LPCM
audio、Dolby AC-3 audio、またはdts audio(図28)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図32)、サンプリング周波数(図33)、および言語コードが含まれる。
The encoding type of the elementary stream (stream_coding_type in FIG. 27) is HDMV LPCM
In the case of audio, Dolby AC-3 audio, or dts audio (FIG. 28), stream_attribute () contains the presentation type information (FIG. 32), sampling frequency (FIG. 33), and language code of the audio elementary stream. included.
エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がPresentation graphics stream(図28)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is a Presentation graphics stream (FIG. 28), stream_attribute () includes the language code of the bitmap subtitle elementary stream.
エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がInteractive graphics stream(図28)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。 When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is Interactive graphics stream (FIG. 28), stream_attribute () includes the language code of the interactive graphics elementary stream.
エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がText subtitle stream(図28)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図34)、言語コードが含まれる。 When the elementary stream encoding type (stream_coding_type in FIG. 27) is a Text subtitle stream (FIG. 28), stream_attribute () includes the character code (FIG. 34) and language code of the text subtitle elementary stream. .
なお、これらの属性情報はこれに限定されない。 Note that the attribute information is not limited to this.
このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定された1つのエレメンタリストリームの属性情報をstream_attribute()によって知ることができる。 As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of one identified elementary stream can be known by stream_attribute ().
再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。 By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.
例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。 For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).
また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザが音声切り替えを指示した場合、再生装置は、オーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。 Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback apparatus to switch the audio, the playback apparatus sequentially selects only the audio elementary stream whose language code is Japanese from the for loop of the audio stream ID (Audio stream id). And play.
さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、オーディオストリーム#1(通常の映画で出力される音声)と、オーディオストリーム#2(監督や出演者によるコメント)とを、再生する音声として指定(選択)した場合、再生装置は、オーディオストリーム#1とオーディオストリーム#2とをミキシング(重畳)して、ビデオストリームとともに再生する。
Further, for example, when playing back an AV stream (movie) made up of a video stream and an audio stream that is referenced by the main path, the user instructs the playback device to switch the audio, and the audio stream # 1 (normal When the audio output in the movie) and the audio stream # 2 (comment by the director or performer) are designated (selected) as the audio to be played back, the playback device selects the
なお、オーディオストリーム#1とオーディオストリーム#2とは、図25および図26のSTN_table()を参照しても分かるように、両方ともメインパスにより参照されるClipに含まれるオーディオストリームとしてもよい。また、オーディオストリーム#1とオーディオストリーム#2のうちの、一方をメインパスにより参照されるClipに含まれるオーディオストリームとし、他方をサブパスにより参照されるClipに含まれるオーディオストリームとしてもよい。このように、メインパスにより参照されるメインAVストリームに重畳された複数のオーディオストリームを2つ選択して、ミキシングして再生することも可能である。
Note that the
このようにして、PlayItem()の中のSTN_table()は、このPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から選ぶことができる仕組みを提供するようにしたので、メインAVストリームが記録されている、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。 In this way, STN_table () in PlayItem () can be used for operations such as audio switching and subtitle switching by the user when this PlayItem and one or more SubPaths to be played back are prepared. Since a mechanism is provided that allows the user to select from the clip referenced by this PlayItem and the clip referenced by one or more SubPaths, a stream different from the AV stream to be reproduced, Interactive operations can also be performed on data files.
また、1つのPlayListの中にSubPathを複数使用し、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、後で、SubPlayItemを追加できる構成とすることができる。例えば、Main Pathが参照するClipAVストリームファイルとこれに対応付けられるPlayListがあり、このPlayListが新たなSub Pathを追加したPlayListに書き換えられた場合、新たなPlayListに基づいて、Main Pathが参照するClipAVストリームファイルとともに、Main Pathが参照するClipAVストリームファイルとは異なるClipAVストリームファイルを参照して、再生を行うことができる。このように、拡張性を有する構成とすることができる。 Also, since a plurality of SubPaths are used in one PlayList and each SubPath refers to a SubPlayItem, an AV stream with high expandability and high flexibility can be realized. That is, it can be configured such that SubPlayItem can be added later. For example, when there is a ClipAV stream file referred to by the Main Path and a PlayList associated with the ClipAV stream file, and this PlayList is rewritten to a PlayList added with a new Sub Path, the ClipAV referenced by the Main Path is based on the new PlayList. Along with the stream file, reproduction can be performed by referring to a ClipAV stream file different from the ClipAV stream file referred to by the Main Path. Thus, it can be set as the structure which has an expandability.
さらに、PlayItem()の中のSTN_table()は、後述する図37の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とをミキシング(合成)して再生することができる仕組みを提供する。例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、PlayItemが参照するClipのオーディオストリームをオーディオストリーム#1とし、SubPathが参照するClipのオーディオストリームをオーディオストリーム#2とし、これらををミキシングして再生することができる仕組みを提供するようにした。また、例えば、PlayItemが参照するClip(メインClip)に含まれる2つのオーディオストリームを、それぞれオーディオストリーム#1とオーディオストリーム#2とし、これらをミキシングして再生することができる仕組みを提供するようにした。これにより、メインAVストリームが記録されている、再生するメインのオーディオストリームとは異なるオーディオストリーム(例えば、監督のコメントのストリーム)の重畳再生を行うことができる。また、メインAVストリームに重畳されている2つのオーディオストリーム#1とオーディオストリーム#2とを重畳(ミキシング)して再生することができる。
Further, STN_table () in PlayItem () is an
具体的な例を、図35を参照して説明する。図35は、ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を示す図である。 A specific example will be described with reference to FIG. FIG. 35 is a diagram illustrating an example of a stream number table representing a relationship between an audio signal provided to a user and a caption signal.
図35においては、音声番号をA_SN(Audio Stream Number)、A_SN2と称し、字幕番号をS_SN(SubPicture Stream Number)と称する。図35においては、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#1(audio_stream_idでエントリーされるオーディオストリーム)のそれぞれにA_SNが与えられ、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#2(audio_stream_id2でエントリーされるオーディオスト
リーム)のそれぞれにA_SN2が与えられる。
In FIG. 35, the audio numbers are referred to as A_SN (Audio Stream Number) and A_SN2, and the subtitle numbers are referred to as S_SN (SubPicture Stream Number). In FIG. 35, A_SN is given to each of the audio streams # 1 (audio streams entered with audio_stream_id) entered in STN_table () of PlayItems constituting the Main Path of the PlayList, and PlayItems constituting the Main Path of the PlayList. A_SN2 is given to each of the audio streams # 2 (audio streams entered with audio_stream_id2) entered in STN_table ().
具体的には、A_SN=1にオーディオ2が与えられ、A_SN=2にオーディオ1が与えられ、A_SN=3にオーディオ3が与えられている。また、A_SN2=1にオーディオ4が与えられ、A_SN2=2にオーディオ5が与えられている。ユーザは、A_SNが与えられているオーディオストリームの中から、再生するオーディオストリーム#1を選択し、選択したオーディオストリーム#1とミキシングするオーディオストリーム#2を、A_SN2が与えられているオーディオストリームの中から選択する。例えば、ユーザは、A_SN=2のオーディオ1と、A_SN2=2のオーディオ5とを再生するオーディオストリームとして選択する。
Specifically,
具体的な例としては、A_SN=1のオーディオ2が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN=2のオーディオ1に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=3のオーディオ3に切り替えられる。また、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=1のオーディオ2に切り替えられる。また、例えば、A_SN2=1のオーディオ4が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN2=2のオーディオ5に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオはA_SN2=1のオーディオ4に切り替えられる。このように、オーディオストリーム#1を選択するためのA_SNと、オーディオストリーム#2を選択するためのA_SN2とは、音声の切り替えを独立させている。すなわち、ユーザは、A_SN=1乃至A_SN=3から1つオーディオストリームを選択し、A_SN2=1およびA_SN2=2から1つオーディオストリームを選択することになる。
As a specific example, when the
なお、ここでは、A_SN、A_SN2の番号が小さい程、ユーザに提供される音声信号の優先度が高い。また、A_SNで与えられるストリームの方が、A_SN2で与えられるストリームより優先度が高い。すなわち、A_SN=1はデフォルトで再生されるオーディオストリームである。 Here, the lower the numbers of A_SN and A_SN2, the higher the priority of the audio signal provided to the user. Further, the stream given by A_SN has higher priority than the stream given by A_SN2. That is, A_SN = 1 is an audio stream reproduced by default.
具体的には、再生装置の言語設定の初期情報に基づいて再生される音声は、A_SN=1であるオーディオ2(図35)に対応しており、音声が切り替えられた後、再生される音声は、A_SN=2であるオーディオ1(図35)に対応している。 Specifically, the audio reproduced based on the initial information of the language setting of the reproduction apparatus corresponds to audio 2 (FIG. 35) with A_SN = 1, and the audio reproduced after the audio is switched. Corresponds to audio 1 (FIG. 35) with A_SN = 2.
このようなストリームナンバーテーブルを提供するために、PlayList()で参照されるPlayItem()の中のSTN table()(図25)において、最初に、オーディオストリーム#1にエントリーするためのaudio_stream_id=0(A_SN=1)でオーディオ2を与え、audio_stream_id=1(A_SN=2)でオーディオ1を与え、audio_stream_id=2(A_SN=3)でオーディオ3を与える。次に、STN table()(図25)において、オーディオストリーム#2にエントリーするためのaudio_stream_id2=0(A_SN2=1)でオーディオ4を与え、audio_stream_id2=1(A_SN2=2)でオーディオ5を与える。
In order to provide such a stream number table, in the STN table () (FIG. 25) in PlayItem () referenced by PlayList (), first, audio_stream_id = 0 for entry to
すなわち、再生する2つのオーディオストリーム(オーディオストリーム#1とオーディオストリーム#2)とを別々に定義することで、ユーザは、再生する2つのオーディオストリームを、定義されたものの中から任意に選択することができる。換言すれば、ユーザは、再生する2つのオーディオストリームの選択を自由に(オーディオストリーム#1とオーディオストリーム#2で定義されているものの中から自由に)行うことができるので、組み合わせの自由度の高い選択を行うことができる。例えば、ユーザは、オーディオ2+オーディオ4の組み合わせ(A_SN=1とA_SN2=1の組み合わせ)や、オーディオ2+オーディオ5の組み合わせ(A_SN=1とA_SN2=2の組み合わせ)を選択することができる。
That is, by defining two audio streams to be reproduced (
このように、PlayItem()の中のSTN table()(図25)のstream_entry()(図26)で、2本のオーディオストリームをエントリーすることが可能な構成としたので、2つのオーディオストリームをミキシングして再生することができる。すなわち、複数の種類からなるストリームから、同じ種類(この例の場合、オーディオストリーム)の2本のストリームをミキシング(重畳、または合成)して、同時に再生することができる。また、ユーザは、所望する2本の同じ種類のストリームのミキシング再生を指令することができる。 In this way, since the stream_entry () (FIG. 26) of the STN table () (FIG. 25) in PlayItem () can be entered with two audio streams, the two audio streams are Can be mixed and played back. That is, two streams of the same type (in this example, an audio stream) can be mixed (superimposed or combined) from a plurality of types of streams and simultaneously played back. In addition, the user can instruct mixing reproduction of two desired types of streams.
なお、以上の例では、図37の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とを、ユーザが別々に選択可能な構成としたが、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義し、ミキシング再生する場合には、この組み合わせの中からユーザに選択させる構成としてもよい。
In the above example, the
次に、図36を参照して、AUXDATAディレクトリのsound.bdmvのシンタクスについて説明する。 Next, the syntax of sound.bdmv in the AUXDATA directory will be described with reference to FIG.
sound.bdmvは、インタラクティブグラフィックスを用いたストリームに対する1つ又は複数の効果音を含むファイルである。 sound.bdmv is a file containing one or more sound effects for a stream using interactive graphics.
SoundData_start_addressは、SoundData()の先頭アドレスを示す32ビットのフィールドであり、SoundIndex()は、実際の効果音のデータであるSoundData()の効果音の属性(例えば、チャネル数・周波数など)を示す情報である。 SoundData_start_address is a 32-bit field indicating the start address of SoundData (), and SoundIndex () indicates the sound effect attribute (for example, the number of channels, frequency, etc.) of SoundData () that is actual sound effect data. Information.
実際の効果音のデータであるSoundData()は、非圧縮のオーディオデータであり、例えば、サウンドストリームとは別に効果音が用意され、所定の位置で出力されるようになされているコンテンツや、ユーザの操作入力を基に再生するデータを変更することができるようになされているなど、ユーザの操作入力を受けることを前提としているコンテンツや、インタラクティブなコンテンツなどにおけるクリック音などとして用意されるデータである。換言すれば、コンテンツ、または、プレイリストまたはプレイアイテムで指定されるコンテンツの一部の仕様によっては、SoundData()を有していないものもある。SoundData()は、例えば、効果音の再生がコマンドによって指令された場合やユーザの操作入力を受けた場合、オーディオストリームに合成されて出力されるようになされている。 SoundData (), which is actual sound effect data, is uncompressed audio data.For example, a sound effect is prepared separately from a sound stream and output at a predetermined position or a user. This is data prepared as click sound for content that is supposed to receive user's operation input, such as being able to change the data to be played based on the operation input, or interactive content is there. In other words, some specifications of content or content specified by a playlist or play item may not have SoundData (). SoundData () is, for example, synthesized with an audio stream and output when a sound effect reproduction is instructed by a command or a user operation input is received.
次に、上述した構成を有するデータを再生出力する再生装置20の構成例と処理について説明する。
Next, a configuration example and processing of the
図37は、本発明を適用した再生装置20の構成例を示すブロック図である。
FIG. 37 is a block diagram illustrating a configuration example of the
この再生装置20は、上述したメインパスとサブパスを有するPlayListを再生することができる。再生装置20は、audio_stream_idで与えられるオーディオストリーム#1に対して、audio_stream_id2で与えられるオーディオストリーム#2やサウンドデータを合成して再生することができる。
The
再生装置20には、再生データ取得部31、スイッチ32、AVデコーダ部33、コントローラ34、オーディオエンコーダ41、ビデオエンコーダ42、D/A変換部43、D/A変換部44、スイッチ45、アナログオーディオ信号インターフェース111、デジタルオーディオ信号インターフェース112、非圧縮ビデオ信号インターフェース113、圧縮ビデオ信号インターフェース114、および、アナログビデオ信号インターフェース115が設けられている。
The
図37の例の場合、最初に、コントローラ34が、例えば、装着された記録媒体21からデータを読み込むストレージドライブ、自分自身の内部の記録媒体からデータを読み込むデータドライブ、または、ネットワーク22を介してデータを取得するネットワークインターフェイスなどの再生データ取得部31を介して、Indexファイルを読み出し、発生されるコマンドに基づいて、PlayListファイルを読み出し、PlayListファイルの情報に基づいてPlayItemを読み出し、これに対応するClipを検出し、ClipInfoを基に、対応するAVストリームやAVデータなどを読み出す。ユーザは、上述したリモートコマンダ24などのユーザインターフェースを用いて、コントローラ34に対し、音声や字幕などの切り替えの指令を行うことができる。さらにまた、ユーザは、上述したリモートコマンダ24などのユーザインターフェースを用いて、コントローラ34に対し、後述する音声の合成処理に関する設定等の各種設定を指示することができる。また、コントローラ34には、再生装置20の言語設定の初期情報が図示せぬ記憶部などから供給される。
In the case of the example of FIG. 37, first, the
また、コントローラ34は、Indexファイル,PlayListファイル(AppInfoPlayList()、PlayList()、または、PlayItem)のうちのいずれかに記載される、オーディオストリーム#1に合成可能なサウンドデータの有無を示すフラグであるis_MixAppまたはis_MixApp_2の値、および、オーディオストリーム#1に合成可能なオーディオストリーム#2有無を示すフラグであるis_MixApp_1をスイッチ45の制御に適宜用いる。
Further, the
PlayListファイルには、Main Path、Sub Pathの情報の他、STN_table()が含まれている。コントローラ34は、PlayListファイルに含まれるPlayItemが参照するメインClipに含まれるメインClip AVストリームファイル、サブClipに含まれるSubPlayItemが参照するサブClip AVストリームファイル、およびSubPlayItemが参照するテキストサブタイトルデータを、再生データ取得部31を介して記録媒体21などから読み出す。ここで、PlayItemが参照するメインClipとSubPlayItemが参照するサブClipとが、異なる記録媒体に記録されていてもよい。例えば、メインClipが記録媒体21に記録されており、対応するサブClipは、例えば、ネットワーク22を介して供給され、再生装置20に内蔵されている図示しないHDDに記憶されたものであってもよい。また、コントローラ34は、自分自身(再生装置20)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置20の言語設定の初期情報に対応するエレメンタリストリームだけを選択し、再生するよう制御する。
The PlayList file includes STN_table () in addition to Main Path and Sub Path information. The
AVデコーダ部33には、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57,58、バックグラウンドデコーダ71、ビデオデコーダ72、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、スイッチ101、およびミキシング処理部102が設けられている。
The
コントローラ34により読み出されたファイルデータは、図示せぬ復調、ECC復号部により復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ34からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ34からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClip AV Streamのデータをバッファ52に供給し、サブClip AV Streamのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AV Streamのデータをバッファリングし、バッファ53は、サブClip AV Streamのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。
The file data read by the
メインClip AV Streamは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClipは、オーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスとオーディオのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。 The main Clip AV Stream is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub clip is a stream obtained by multiplexing one or more streams of audio, bitmap subtitle (Presentation Graphics stream), interactive graphics, and audio. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.
また、再生データ取得部31は、メインClip AV StreamとサブClip AV Streamおよびテキストサブタイトルデータのそれぞれのファイルを時分割に交互に読み出しても良いし、または、メインClip AV Streamを読み出す前に、サブClip AV Streamやテキストサブタイトルデータを予め読み出しておき、すべてバッファ(バッファ53またはバッファ54)へプリロードしておくようにしてもよい。
Further, the reproduction
そして、メインClip AV Stream用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClip AV StreamをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームをビデオデコーダ72に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを、スイッチ45,1stオーディオデコーダ75−1,2ndオーディオデコーダ75−2への供給元となるスイッチ101に供給する。
Then, the stream data read from the
プレゼンテーショングラフィックスストリームは、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、例えば、テキスト字幕データである。 The presentation graphics stream is, for example, bitmap subtitle data, and the text subtitle data is, for example, text subtitle data.
サブClip AV Stream用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClip AV StreamをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを、スイッチ45,1stオーディオデコーダ75−1,2ndオーディオデコーダ75−2への供給元となるスイッチ101に供給する。
The stream data read from the
バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。
Data read from the
PIDフィルタ55により振り分けられたビデオストリームは、後段のビデオデコーダ72に供給される。ビデオデコーダ72は、ビデオストリームをデコードし、デコードしたビデオデータをビデオプレーン生成部92へ出力する。
The video stream distributed by the
スイッチ57は、PIDフィルタ55から供給されたメインClipに含まれるプレゼンテーショングラフィックスストリームと、サブClip に含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。
The
また、スイッチ58は、PIDフィルタ55から供給されたメインClipに含まれるインタラクティブグラフィックスストリームと、サブClip に含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。すなわち、インタラクティブグラフィックスデコーダ74へ同時に入力されるインタラクティブグラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのどちらかから分離されたストリームである。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、インタラクティブグラフィックスプレーン生成部94に供給する。
Further, the
さらに、スイッチ101は、PIDフィルタ55または56から供給されたメインClipまたはサブClip に含まれる所定の1つのオーディオストリームを選択し、選択したオーディオストリームを、後段のスイッチ45および1stオーディオデコーダ75−1、または、2ndオーディオデコーダ75−2に供給する。
Further, the
本実施の形態では例えば、1stオーディオデコーダ75−1は、オーディオストリーム#1をデコードするためのものであり、2ndオーディオデコーダ75−2は、オーディオストリーム#2をデコードするためのものである。具体的には、図25のSTN_table()において、audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、audio_stream_id2で与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。
In the present embodiment, for example, the 1st audio decoder 75-1 is for decoding the
また、スイッチ45を介してデジタルオーディオ信号インターフェース112から出力され、また、1stオーディオデコーダ75−1へ入力されるオーディオストリーム#1は、メインClipまたはサブClipの何れかから分離されたストリームである。また、同様に、2ndオーディオデコーダ75−2へ入力されるオーディオストリーム#2も、メインClipまたはサブClipの何れかから分離されたストリームである。
The
例えば、メインClipにオーディオストリーム#1とオーディオストリーム#2とが含まれていた場合、PIDフィルタ55は、オーディオストリームのPIDに基づいて、オーディオストリーム#1とオーディオストリーム#2とをフィルタリングし、スイッチ101に供給する。この場合、スイッチ101は、PIDフィルタ55から供給されたオーディオストリーム#1を、1stオーディオデコーダ75−1に供給するようスイッチを選択し、PIDフィルタ55から供給されたオーディオストリーム#2を、2ndオーディオデコーダ75−2に供給するようスイッチを選択する。
For example, when the
1stオーディオデコーダ75−1は、オーディオデストリーム#1としての符号化オーディオストリームをデコードし、その結果得られる非圧縮オーディオ信号をミキシング処理部102に供給する。また、2ndオーディオデコーダ75−2は、オーディオデストリーム#2としての符号化オーディオストリームをデコードし、その結果得られる非圧縮オーディオ信号をミキシング処理部102に供給する。
The 1st audio decoder 75-1 decodes the encoded audio stream as the
ここで、オーディオストリーム#1とオーディオストリーム#2とを重畳して再生するような場合(ユーザにより再生するオーディオストリームとして、2つのオーディオストリームが選択された場合)、1stオーディオデコーダ75−1によりデコードされたオーディオストリーム#1(非圧縮オーディオ信号)と、2ndオーディオデコーダ75−2によりデコードされたオーディオストリーム#2(非圧縮オーディオ信号)とが、ミキシング処理部102に供給される。
Here, when
ミキシング処理部102は、1stオーディオデコーダ75−1からのオーディオストリーム#1と、2ndオーディオデコーダ75−2からのオーディオストリーム#2とをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオストリーム#1と2ndオーディオデコーダ75−2から出力されるオーディオストリーム#2とをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。
The mixing
また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、この場合、メニュー選択などによる効果音のデータなど、ストリームとは独立して存在する音声データである。ミキシング処理部97は、ミキシング処理部102によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオストリーム#1と2ndオーディオデコーダ75−2から出力されたオーディオストリーム#2とがミキシングされた非圧縮オーディオ信号)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、非圧縮オーディオ信号として出力する。
The sound data selected by the
AVデコーダ部33のミキシング処理部97から出力された非圧縮オーディオ信号は、オーディオエンコーダ41、スイッチ45、および、D/A変換部43にそれぞれ出力される。
The uncompressed audio signal output from the mixing
D/A変換部43は、ミキシング処理部97から供給された非圧縮オーディオ信号をデジタル信号からアナログ信号に変換し、アナログオーディオ信号インターフェース111に供給する。即ち、アナログオーディオ信号インターフェース111は、このアナログの非圧縮オーディオ信号を外部に出力する。
The D /
オーディオエンコーダ41は、ミキシング処理部97から供給された非圧縮オーディオ信号をエンコードし、その結果得られる符号化オーディオストリームをスイッチ45に供給する。即ち、オーディオエンコーダ41は、再符号化処理を実行することになる。従って、オーディオエンコーダ41からの出力データを、適宜、再符号化オーディオストリームと称する。
The
このようにして、スイッチ45には、スイッチ101からの符号化オーディオストリーム、オーディオエンコーダ41からの再符号化オーディオストリーム、または、ミキシング処理部97からの非圧縮オーディオ信号が、入力信号として適宜供給される。
In this way, the encoded audio stream from the
そこで、スイッチ45は、コントローラ34の制御に従って、何れかの入力信号を選択し、それを出力信号として出力する。即ち、スイッチ45からの出力信号は、何れもデジタルのオーディオ信号となる。これらのデジタルのオーディオ信号は、デジタルオーディオ信号インターフェース112に供給される。即ち、デジタルオーディオ信号インターフェース112は、このデジタルのオーディオ信号を外部に出力する。
Therefore, the
なお、スイッチ45の切り替えを行うためのコントローラ34の制御については、後述する図38のオーディオ再生処理の一処理として説明することにする。
The control of the
ところで、AVデコーダ部33内部において、テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。
By the way, in the
スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン生成部93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのいずれかから分離されたストリームである(スイッチ57により選択される)。したがって、プレゼンテーショングラフィックスプレーン生成部93へ同時に出力される字幕画像は、メインClip AV Streamからのプレゼンテーショングラフィックスストリーム、またはサブClip AV Streamからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。
The
バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。
Based on the background image data supplied from the background decoder 71, for example, the background plane generation unit 91 generates a background plane that becomes a wallpaper image when the video image is displayed in a reduced size, and this is converted into the video data. This is supplied to the
ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、ビデオプレーン生成部92からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。
The video
これらのスイッチ57、58、101、77は、ユーザインターフェースを介するユーザからの選択、または、対象となるデータが含まれるファイル側に基づいて、スイッチを切り替える。
These
ビデオエンコーダ42は、ビデオデータ処理部96から供給された非圧縮のビデオ信号をエンコードし、圧縮ビデオ信号インターフェース114に供給する。D/A変換部44は、ビデオデータ処理部96から供給された非圧縮のビデオ信号をデジタル信号からアナログ信号に変換し、アナログビデオ信号インターフェース115に供給する。
The
非圧縮ビデオ信号インターフェース113は、ビデオデータ処理部96から供給された非圧縮ビデオ信号を外部に出力する。圧縮ビデオ信号インターフェース114は、ビデオエンコーダ42から供給された符号化ビデオストリームを外部に出力する。アナログビデオ信号インターフェース115は、D/A変換部44から供給されたアナログの非圧縮ビデオ信号を外部に出力する。
The uncompressed
次に、図38のフローチャートを参照して、オーディオ信号を再生する場合に実行される、オーディオ信号再生処理の一例について説明する。 Next, an example of audio signal reproduction processing executed when reproducing an audio signal will be described with reference to the flowchart of FIG.
ただし、図38は、本発明の特徴を明確にすべく、スイッチ45の切り替え制御の手法が重点的に記載されており、AVデコーダ部33内部の処理については概略が記載されている。即ち、AVデコード部33内部の処理自体については、上述した各ブロックの構成の説明を参照することで容易に理解できるため、オーディオ信号再生処理の説明では、その概略を述べるに留める。
However, in FIG. 38, in order to clarify the features of the present invention, the switching control method of the
また、以下、コントローラ34がスイッチ45の切り替え制御を行うとして、再生処理の説明を行う。
Hereinafter, the reproduction process will be described on the assumption that the
さらにまた、実際には、オーディオ信号再生処理は、それのみが実行されることは少なく、ビデオ信号の再生処理と並行して実行されることが多いが、以下の説明では、説明の簡略上、ビデオ信号の再生処理については言及しない。 Furthermore, in practice, the audio signal reproduction process is rarely performed alone and is often performed in parallel with the video signal reproduction process. However, in the following description, for simplicity of explanation, There is no mention of video signal playback processing.
ステップS1において、コントローラ34は、ユーザ設定により符号化オーディオストリームの出力が指示されているか否かを判定する。
In step S1, the
即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、例えば、コーデックタイプごとの非圧縮オーディオ信号を出力するのか、それとも、符号化オーディオストリームを出力するのかについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。
That is, in this embodiment, the user selects, for example, whether to output an uncompressed audio signal for each codec type or an encoded audio stream using a user interface or the like. The selection is accepted by the
この例の場合では、コーデックタイプごとの非圧縮オーディオ信号を出力するという選択がユーザによりなされていた場合、ステップS1の処理でNOであると判定されて、処理はステップS2に進む。 In the case of this example, if the user has selected to output an uncompressed audio signal for each codec type, it is determined NO in the process of step S1, and the process proceeds to step S2.
ステップS2において、コントローラ34は、PlayListファイルを読み出す。
In step S2, the
ステップS3において、コントローラ34は、AVデコーダ部33を制御して、後述する音声合成に関するユーザ設定に基づき、PlayListファイルに従って選択されたオーディオストリーム#1およびオーディオストリーム#2を適宜デコード処理しサウンドデータと共に適宜合成処理する。
In step S3, the
即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介して1stオーディオデコーダ75−1に供給してデコードさせ、バッファ52または53にバッファリングされたオーディオストリーム#2を、スイッチ101を介して2ndオーディオデコーダ75−2に供給してデコードさせ、ミキシング処理部102を制御して、1stオーディオデコーダ75−1および2ndオーディオデコーダ75−2においてデコードされたオーディオストリームの合成処理を適宜実行させ、ミキシング処理部97を制御して、ミキシング処理部102により合成されたオーディオストリームとバッファ95に保持されているサウンドデータとの合成処理を適宜実行させる。
That is, the
このステップS3の処理済のデータは、デジタルの非圧縮オーディオ信号としてAVデコーダ部33から出力される。
The processed data in step S3 is output from the
そこで、コントローラ34は、ステップS4において、この処理済のデータを、非圧縮オーディオ信号として外部に出力するように、スイッチ45を制御する。
Therefore, in step S4, the
詳細には、ステップS3の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。
More specifically, the processed data in step S3, that is, the digital uncompressed audio signal is supplied directly to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), as well as an audio encoder. 41. Then, the uncompressed audio signal supplied to the
従って、このステップS4の処理では、スイッチ45の入力が、図37中3つの入力端のうちの下端に切り替えられ、その下端に供給されたデジタルの非圧縮オーディオ信号が、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。
Therefore, in the process of step S4, the input of the
なお、ステップS3の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。
The processed data in step S3, that is, the digital uncompressed audio signal is also supplied to the D /
ステップS5において、コントローラ34は、再生終了であるか否かを判定する。
In step S5, the
ステップS5において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。 If it is determined in step S5 that the playback has ended, the audio signal playback process ends.
これに対して、ステップS5において、まだ再生終了ではないと判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返される。 On the other hand, if it is determined in step S5 that the reproduction has not ended yet, the process returns to step S2, and the subsequent processes are repeated.
このようにして、ユーザ設定として、上述した例のうちの、コーデックタイプごとの非圧縮オーディオ信号を出力すると選択されていた場合には、ステップS1の処理でNOであると判定されて、ステップS2乃至S4の処理が実行されることになる。 In this way, when the user setting is selected to output an uncompressed audio signal for each codec type in the above-described example, it is determined NO in the process of step S1, and step S2 is performed. The process from S4 to S4 is executed.
これに対して、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択されていた場合には、ステップS1の処理でYESであると判定されて、処理はステップS6に進む。 On the other hand, when the user setting is selected to output the encoded audio stream in the above-described example, it is determined as YES in the process of step S1, and the process proceeds to step S6. .
ステップS6において、コントローラ34は、ユーザ設定により再符号化の禁止が指示されているか否かを判定する。
In step S6, the
即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、例えば、再符号化オーディオストリームを出力するのか、それとも、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力するかについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。
That is, in this embodiment, the user outputs, for example, a re-encoded audio stream using a user interface or the like, or the encoded audio stream (audio stream # acquired by the reproduction data acquisition unit 31). It is possible to select whether to output 1) as it is, and such selection is accepted by the
この例の場合では、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力するという選択がユーザによりなされていた場合、ステップS6の処理でYESであると判定されて、処理はステップS7に進む。
In the case of this example, if the user has selected to output the encoded audio stream (audio stream # 1) acquired by the reproduction
ステップS7において、コントローラ34は、PlayListファイルを読み出す。
In step S7, the
ステップS8において、コントローラ34は、AVデコーダ部33とスイッチ45とを制御して、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームをそのまま外部に出力する。
In step S8, the
即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介してスイッチ45(図37中3つの入力端のうちの上端)に供給する。このとき、コントローラ34は、スイッチ45の入力を、図37中3つの入力端のうちの上端に切り替えておく。すると、その上端に供給されたデジタルの符号化オーディオストリーム(オーディオストリーム#1)は、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。
That is, the
ステップS9において、コントローラ34は、再生終了であるか否かを判定する。
In step S9, the
ステップS9において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。 If it is determined in step S9 that the playback has ended, the audio signal playback process ends.
これに対して、ステップS9において、まだ再生終了ではないと判定された場合、処理はステップS6に戻され、それ以降の処理が繰り返される。 On the other hand, if it is determined in step S9 that the reproduction has not been completed yet, the process returns to step S6, and the subsequent processes are repeated.
このようにして、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択され、かつ、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力すると選択されていた場合には、ステップS1の処理でYESであると判定されて、ステップS7,S8の処理が実行されることになる。
In this way, as the user setting, the encoded audio stream (audio stream # 1) that is selected to output the encoded audio stream in the above-described example and is acquired by the reproduction
これに対して、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択され、かつ、再符号化オーディオストリームを出力すると選択されていた場合には、ステップS1の処理でYESであると判定された後、ステップS6の処理でNOであると判定されて、処理はステップS10に進む。 On the other hand, if the user setting is selected to output the encoded audio stream and the output of the re-encoded audio stream is selected in the above-described example, YES is determined in the process of step S1. Is determined as NO in the process of step S6, and the process proceeds to step S10.
ステップS10において、コントローラ34は、PlayListファイルを読み出す。
In step S10, the
ステップS11において、コントローラ34は、PlayListファイルにおいて、オーディオストリーム#1に合成するデータの存在を示すフラグが1となっているか否かを判定する。
In step S11, the
即ち、コントローラ34は、PlayListファイルのIndexファイルのindexes()に記載されている、メインのオーディオストリームであるオーディオストリーム#1に合成されるデータが存在することを示すフラグのうちのいずれかが1となっているか否か、具体的には、サウンドデータが存在することを示すフラグis_MixAppまたはis_MixApp_2、もしくは、オーディオストリーム#2が存在することを示すフラグis_MixApp_1のうちのいずれかが1となっているか否かを判断する。
That is, the
いずれのフラグも1ではないと判断された場合には、このIndexファイルに関連するデータには、再生装置20においてオーディオストリーム#1に合成することが可能なサウンドデータおよびオーディオストリーム#2が含まれていないことを意味するので、このような場合には、ステップS11においてNOであると判定されて、上述したステップS8以降の処理が実行される。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。
If it is determined that none of the flags is 1, the data related to the index file includes sound data and
これに対して、いずれかのフラグが1となっていると判断された場合、ステップS11においてYESであると判定されて、処理はステップS12に進む。 On the other hand, when it is determined that one of the flags is 1, it is determined as YES in step S11, and the process proceeds to step S12.
ステップS12において、コントローラ34は、PlayListファイルに含まれるPlayItemのうちの、再生するPlayItemにおいてオーディオストリーム#2が存在しているか否かを判定する。
In step S12, the
再生するPlayItemにおいてオーディオストリーム#2が存在しない場合には、ステップS12においてNOであると判定されて、処理はステップS14に進む。ただし、ステップS14以降の処理については後述する。
If there is no
これに対して、再生するPlayItemにおいてオーディオストリーム#2が存在する場合には、ステップS12においてYESであると判定されて、処理はステップS13に進む。ステップS13において、コントローラ34は、ユーザ設定によりオーディオストリーム#2の出力が指示されているか否かを判定する。
On the other hand, when the
即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、音声合成に関する諸設定、例えば、インタラクティブサウンドがある場合に合成を行うのか否かについての選択や、セカンダリオーディオ(オーディオストリーム#2)を再生して合成するのか否かについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。
That is, in this embodiment, the user uses a user interface or the like to select various settings related to speech synthesis, for example, whether or not to perform synthesis when there is an interactive sound, and secondary audio (audio stream # It is possible to select whether to reproduce and synthesize 2), and such selection is accepted by the
この例の場合では、セカンダリオーディオ(オーディオストリーム#2)を再生して合成するという選択がユーザによりなされていた場合、ステップS13の処理でYESであると判定されて、処理はステップS17に進む。ただし、ステップS17以降の処理については後述する。 In the case of this example, if the user has selected to reproduce and synthesize secondary audio (audio stream # 2), it is determined YES in the process of step S13, and the process proceeds to step S17. However, the processing after step S17 will be described later.
これに対して、セカンダリオーディオ(オーディオストリーム#2)を再生して合成しないという選択がユーザによりなされていた場合、ステップS13の処理でNOであると判定されて、処理はステップS14に進む。 On the other hand, if the user has selected not to reproduce and synthesize secondary audio (audio stream # 2), it is determined NO in the process of step S13, and the process proceeds to step S14.
ステップS14において、コントローラ34は、PlayListファイルに含まれるPlayItemのうちの、再生するPlayItemにおいてオーディオストリーム#2以外に合成処理されうるデータが存在するか否かを判定する。
In step S <b> 14, the
ここで、オーディオストリーム#2以外に合成処理されうるデータとは、例えばインタラクティブサウンド等のサウンドデータをいい、かかるサウンドデータが、再生するPlayItemにおいて存在しない場合には、ステップS14においてNOであると判定されて、処理はステップS15に進む。このステップS15の処理は、上述したステップ8の処理と基本的に同様である。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。その後、処理はステップS21に進む。ただし、ステップS21以降の処理については後述する。
Here, the data other than the
これに対して、例えばインタラクティブサウンド等のサウンドデータが、再生するPlayItemにおいて存在する場合には、ステップS14においてYESであると判定されて、処理はステップS16に進む。 On the other hand, for example, when sound data such as interactive sound is present in the PlayItem to be reproduced, it is determined as YES in Step S14, and the process proceeds to Step S16.
ステップS16において、コントローラ34は、ユーザ設定によりオーディオストリーム#2以外の合成処理の許可がなされているか否かを判定する。
In step S16, the
即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、上述したように、音声合成に関する諸設定、例えば、インタラクティブサウンド等のサウンドデータがある場合に合成を行うのか否かについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。
That is, in the present embodiment, the user uses the user interface or the like to set various settings related to speech synthesis, for example, whether to perform synthesis when there is sound data such as interactive sound, as described above. Selections can be made and such selections are accepted by the
この例の場合では、インタラクティブサウンド等のサウンドデータがある場合であっても合成は行わないという選択がユーザによりなされていた場合、ステップS16の処理でNOであると判定されて、処理はステップS15に進む。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。その後、処理はステップS21に進む。ただし、ステップS21以降の処理については後述する。
In the case of this example, if the user has selected not to perform synthesis even when there is sound data such as interactive sound, it is determined NO in the process of step S16, and the process proceeds to step S15. Proceed to That is, the encoded audio stream of the
これに対して、インタラクティブサウンド等のサウンドデータがある場合に合成は行うという選択がユーザによりなされていた場合、ステップS16の処理でYESであると判定されて、処理はステップS17に進む。 On the other hand, if the user has selected to perform synthesis when there is sound data such as interactive sound, it is determined YES in the process of step S16, and the process proceeds to step S17.
ステップS17において、コントローラ34は、AVデコーダ部33を制御して、PlayListファイルに従って選択されたオーディオストリーム#1およびオーディオストリーム#2を適宜デコード処理しサウンドデータと共に適宜合成処理する。
In step S17, the
即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介して1stオーディオデコーダ75−1に供給してデコードさせ、バッファ52または53にバッファリングされたオーディオストリーム#2を、スイッチ101を介して2ndオーディオデコーダ75−2に供給してデコードさせ、ミキシング処理部102を制御して、1stオーディオデコーダ75−1および2ndオーディオデコーダ75−2においてデコードされたオーディオストリームの合成処理を適宜実行させ、ミキシング処理部97を制御して、ミキシング処理部102により合成されたオーディオストリームとバッファ95に保持されているサウンドデータとの合成処理を適宜実行させる。
That is, the
このステップS17の処理済のデータは、デジタルの非圧縮オーディオ信号としてAVデコーダ部33から出力される。
The processed data in step S17 is output from the
ステップS18において、コントローラ34は、外部機器及び接続伝送路がオーディオストリーム#1のCh数(チャンネル数)と同じCh数の非圧縮オーディオ信号に対応しているか否かを判定する。
In step S18, the
非圧縮オーディオ信号に対応していない場合とは、再符号化の必要があることを意味しているので、このような場合には、コントローラ34は、ステップS18の処理でNOであると判定し、ステップS19において、ステップS17の処理済のデータを再符号化して外部に出力するように、スイッチ45を制御する。
The case of not corresponding to the uncompressed audio signal means that re-encoding is necessary. In such a case, the
詳細には、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。
Specifically, the processed data in step S17, that is, the digital uncompressed audio signal is directly supplied to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), and the audio encoder. 41. Then, the uncompressed audio signal supplied to the
従って、このステップS19の処理では、スイッチ45の入力が、図37中3つの入力端のうちの中央端に切り替えられ、その中央端に供給されたデジタルの再符号化オーディオストリームが、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。
Therefore, in the process of step S19, the input of the
なお、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。
The processed data in step S17, that is, the digital uncompressed audio signal is also supplied to the D /
これに対して、外部機器及び接続伝送路がオーディオストリーム#1のCh数と同じCh数の非圧縮オーディオ信号に対応している場合には、再符号化せずに外部に出力することができる。従って、このような場合には、コントローラ34は、ステップS18の処理でYESであると判定し、ステップS20において、ステップS17の処理済のデータを非圧縮オーディオ信号として外部に出力するように、スイッチ45を制御する。
On the other hand, when the external device and the connection transmission path correspond to the uncompressed audio signal having the same Ch number as that of the
詳細には、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。
Specifically, the processed data in step S17, that is, the digital uncompressed audio signal is directly supplied to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), and the audio encoder. 41. Then, the uncompressed audio signal supplied to the
従って、このステップS20の処理では、スイッチ45の入力が、図37中3つの入力端のうちの下端に切り替えられ、その下端に供給されたデジタルの非圧縮オーディオ信号が、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。
Therefore, in the process of step S20, the input of the
なお、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。
The processed data in step S17, that is, the digital uncompressed audio signal is also supplied to the D /
このようにして、ステップS15,S19,S20のうちの何れかの処理が実行されると、即ち、PlayListにおける再生するPlayItemに従って、上述した各種形態のうちの何れかの形態でオーディオ信号が外部に出力されると、処理はステップS21に進む。 In this way, when any one of steps S15, S19, and S20 is executed, that is, according to the PlayItem to be reproduced in the PlayList, the audio signal is externally output in any of the various forms described above. If output, the process proceeds to step S21.
ステップS21において、コントローラ34は、次のPlayItemがあるか否かを判定する。
In step S21, the
次のPlayItemが存在する場合には、ステップS21の処理でYESであると判定されて、処理はステップS12に戻され、それ以降の処理が繰り返される。 If there is a next PlayItem, it is determined YES in the process of step S21, the process returns to step S12, and the subsequent processes are repeated.
これに対して、次のPlayItemが存在しない場合には、ステップS21の処理でNOであると判定されて、処理はステップS22に進む。 On the other hand, if there is no next PlayItem, it is determined as NO in the process of step S21, and the process proceeds to step S22.
ステップS22において、コントローラ34は、再生終了であるか否かを判定する。
In step S22, the
ステップS22において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。 If it is determined in step S22 that the playback has ended, the audio signal playback process ends.
これに対して、ステップS22において、まだ再生終了ではないと判定された場合、処理はステップS10に戻され、それ以降の処理が繰り返される。 On the other hand, if it is determined in step S22 that the reproduction is not yet finished, the process returns to step S10, and the subsequent processes are repeated.
以上、ビデオ信号の再生とは独立して、オーディオ信号再生処理について説明してきた。ただし、上述したように、オーディオ信号再生処理は、ビデオ信号の再生処理と並行して実行される場合が多々ある。従って、このような場合には、そのビデオ信号の再生処理結果も、オーディオ信号再生処理の判断処理等に取り入れることも可能である。 The audio signal reproduction process has been described above independently of the video signal reproduction. However, as described above, the audio signal reproduction process is often executed in parallel with the video signal reproduction process. Therefore, in such a case, the result of the video signal reproduction process can also be incorporated into the determination process of the audio signal reproduction process.
例えば、上述した図38のステップS14の判定処理として、即ち、サウンドデータとして合成される合成用音声データが存在するか否かの判定処理として、ポップアップメニュー用など予めメモリにロードされるインタラクティブグラフィックスストリーム等のデータを解析し、その解析結果に基づいて判定を行う、といった判定処理を採用できる。 For example, as the determination processing in step S14 in FIG. 38 described above, that is, as determination processing for determining whether or not there is audio data for synthesis to be synthesized as sound data, interactive graphics loaded in the memory in advance such as for a pop-up menu A determination process of analyzing data such as a stream and performing a determination based on the analysis result can be employed.
即ち、インタラクティブグラフィックスストリームには、画面上に表示されるボタン等の部品数や、機器外部からのコマンドの受信によりユーザがそのボタンを選択する操作等を行ったと判断される場合に合成処理されるオーディオデータの識別情報等が含まれている。従って、コントローラ34は、AVデコーダ部33等を制御して、このインタラクティブグラフィックストリームを解析することによって、ボタン等、音声の合成処理を伴う可能性のあるグラフィックスデータの有無を確認し、該当するグラフィックスデータが有る場合にはさらにオーディオデータの識別情報等からそのグラフィックスデータがオーディオデータと結び付けられているか否かを確認することができ、そのインタラクティブグラフィックスストリームの対応する再生区間において音声の合成処理が行われる可能性があるか否かについて判断することができる。
In other words, the interactive graphics stream is combined when the number of parts such as buttons displayed on the screen or a user's operation for selecting the button is determined by receiving a command from the outside of the device. Audio data identification information and the like. Therefore, the
このように、コントローラ34は、スイッチ45を適切に制御し、また、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1)を解析することで、再符号化の効果の有無(上述した例ではオーディオエンコーダ41からの再符号化オーディオストリームの出力有無)を厳密に判定し、再符号化オーディオストリームの出力を極力避けるようにする。これにより、無用な再符号化オーディオストリームが出力されることがなく、コンテンツの音質を最大限保つことができる、という効果を奏することが可能になる。
As described above, the
以下、この効果についてさらに詳しく説明する。 Hereinafter, this effect will be described in more detail.
即ち、本出願人により既に出願されている特願2006−147981等に開示されている再生装置においては、スイッチ45は存在せず、音声の合成処理が実際に行われるのか否かに関わらず、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1に相当)に合成するデータの存在を示すフラグが立っている場合(上述した図38の例では、ステップS11の処理でYESであると判定された場合に相当)、必ず再符号化処理(上述した図38の例では、ステップS19の処理に相当)が行われていた。このため、音声の合成処理が実際には行われていないにも関わらず、再符号化オーディオストリームが必ず出力されてしまい、その結果、再生される音声の音質が無用に劣化してしまっていた。
That is, in the playback device disclosed in Japanese Patent Application No. 2006-147981 already filed by the present applicant, the
また、上述したフラグが立っている場合、主要音声データ、即ち、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1に相当)のCh数(チャンネル数)に関わらず再符号化が行われていた。このため、例えば2チャンネルステレオ音声の符号化オーディオストリームがデコードされ、その結果得られる非圧縮オーディオ信号に対して合成処理が行われた場合であっても再符号化が行われるので、外部との接続インターフェース(例えばS/PDIF)が2チャンネルの非圧縮音声データの伝送に対応している場合にも無用な再符号化が行われてしまい、その結果、音質が劣化するばかりか、再符号化オーディオストリームのCh数がソースと一致していなければ外部デコーダにおいて正しい音場が生成されなかった。
When the above flag is set, re-encoding is performed regardless of the number of channels (number of channels) of the main audio data, that is, the encoded audio stream to be reproduced (corresponding to
そこで、本実施の形態の再生装置20は、再生対象の符号化オーディオストリーム(例えば上述した例ではオーディオストリーム#1)を再生する際(オーディオ単体の生成のみならず、ビデオ信号の再生との並行再生も含む)、音声の合成処理に関してユーザに設定を開放し、この設定内容と、再生対象の符号化オーディオストリームから得られる情報とに基づいて、音声の合成処理が実際に行われるか否かを厳密に判定するようにした(例えば図38のステップS12乃至S16の処理参照)。そして、本発明が適用される再生装置は、音声の合成処理が実際に行われたときにのみ、再符号化オーディオストリームの外部出力を許可し(例えば図38のステップS19の処理参照)、それ以外の場合には、再符号化オーディオストリームの外部出力を禁止し、元の符号化オーディオストリーム(オーディオストリーム#1)等を外部に出力するようにした(例えば図38のステップS15等の処理参照)
Therefore, the
このような本発明が適用される再生装置20の構成をより一般化して表現すると、例えば次のようになる。
A more generalized representation of the configuration of the
即ち、例えば、本発明が適用される再生装置は、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、その符号化オーディオストリームに対して復号処理を施す復号手段と、復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、合成手段により合成用データが合成された非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段とを備えており、さらに、再生対象の符号化オーディオストリームと、これとの合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの出力を許可し、それ以外の第2の場合、再符号化オーディオストリームの出力を禁止する制御手段を備えるように構成することができる。 That is, for example, a playback apparatus to which the present invention is applied includes a playback data acquisition unit that acquires playback data including an encoded audio stream, a decoding unit that performs a decoding process on the encoded audio stream, and a decoding unit. The uncompressed audio signal obtained as a result of the decoding process is combined with synthesis means for synthesizing data, which is data to be synthesized with the uncompressed audio signal, and the uncompressed audio signal synthesized with the synthesis data by the synthesis means Re-encoding means for performing re-encoding processing, and further, there is an encoded audio stream to be reproduced and data for synthesis with this, and the user permits or instructs the synthesis In the first case, the output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means is permitted, and otherwise In the second case, it may be configured to include a control means for prohibiting the output of the re-encoded audio stream.
かかる特徴的構成を有する本発明が適用される再生装置は、特願2006−147981等に開示されている再生装置等と比較して、より一段と高い精度で音声の合成処理がなされないことを検知することができ、このような検知をした場合には、再符号化オーディオストリームを出力せずに、例えば媒体に記録されている符号化オーディオストリーム(上述した例ではオーディオストリーム#1)をそのまま出力することもできるため、無用な音質の劣化を防止することができるようになる。
A playback apparatus to which the present invention having such a characteristic configuration is applied detects that speech synthesis processing is not performed with higher accuracy than the playback apparatus disclosed in Japanese Patent Application No. 2006-147981. When such detection is performed, for example, the encoded audio stream recorded on the medium (
さらに、本実施の形態の再生装置20は、音声の合成処理が行われる場合であっても、外部機器との接続伝送路及び外部機器が、再生対象の符号化オーディオストリームと同じだけのCh数の非圧縮オーディオ信号の伝送や受信に対応していると判断したときには、音声の合成処理後の非圧縮オーディオ信号を、再符号化処理せずにそのまま出力することができる(例えば図38のステップS18YES,S20参照)ので、その結果、無用な音質の劣化を防ぐことができるようになる。
Furthermore, the
即ち、より一般表現化された本発明が適用される再生装置についていえば、上述した制御手段は、さらに、再生対象の符号化オーディオストリームが有するチャンネル数(Ch数)を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器がそのチャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合には、再符号化オーディオストリームの出力を禁止することができる。即ち、この場合には合成手段により合成用データが合成された非圧縮オーディオ信号がそのまま外部に出力され、その結果、無用な音質の劣化を防ぐことができるようになる。 That is, regarding the playback apparatus to which the present invention expressed in more general terms is applied, the control means described above further determines the number of channels (number of channels) included in the encoded audio stream to be played back, and Even in the third case, in the third case where the externally connected transmission path and the external device support transmission or reception of the uncompressed audio signal of the number of channels, the output of the re-encoded audio stream is Can be banned. That is, in this case, the uncompressed audio signal obtained by synthesizing the synthesis data by the synthesizing means is output to the outside as it is, and as a result, unnecessary deterioration in sound quality can be prevented.
さらにまた、コントローラ34は、スイッチ45を制御することで、次のような処理を実行することができる。
Furthermore, the
即ち、オーディオエンコーダ41からの再符号化オーディオストリームの外部出力の禁止をしない場合であっても、コントローラ34は、AVデコーダ部33から出力された非圧縮オーディオ信号のうちの、音声の合成処理が実際に行われた部分(例えばAccess Unit単位)だけを再符号化オーディオストリームに置き換えて外部へ出力させ、それ以外の部分を非圧縮オーディオ信号のまま外部へ出力させるようにすることもできる。
In other words, even when the external output of the re-encoded audio stream from the
具体的には例えば、再生データ取得部31によって、図39に示されるような符号化オーディオストリーム201が再生対象のオーディオストリーム#1として取得されたとする。ここで、図39において、AUk(kは0乃至10の整数値)は、Access Unitを示している。そこで、図39または後述する図40の説明においては、Access Unitを、他のものと区別すべく、適宜AUkと称する。
Specifically, for example, it is assumed that the encoded
この符号化オーディオストリーム201に対しては、ミキシング処理部102または97において音声の合成処理が施されることになるが、その全ての部分に対して音声の合成処置が施されずに、ここでは、AU3乃至AU7の区間211に対してのみ音声の合成処理が施されるとする。
The encoded
この場合、コントローラ34は、ミキシング処理部102,97の処理をAccess Unit単位で監視する。換言すると、符号化オーディオストリーム201が1stオーディオデコーダ75−1によって非圧縮オーディオ信号に変換された後、かかる非圧縮オーディオ信号のうちのどの区間(例えばAccess Unit単位)において音声の合成処理が実際に施されたのかを示す情報が、ミキシング処理部102,97からコントローラ34に伝達される。
In this case, the
これにより、図39の例でいえば、コントローラ34は、この情報に基づいて、音声の合成処理が実際に行われた区間は、AU3乃至AU7の区間211であることを認識できるようになる。
Accordingly, in the example of FIG. 39, the
従って、コントローラ34は、かかる認識結果に基づいてスイッチ45の切り替えを適切に制御することで、図40に示されるような符号化オーディオストリーム202を外部に出力できるようになる。具体的には、コントローラ34は、スイッチ45を適宜切り替えることで、音声の合成処理が実際には行われていないAU0乃至AU2の区間については、スイッチ101から提供された符号化オーディオストリーム(オーディオストリーム#1)における区間220を外部に出力し、音声の合成処理が実際に行われたAU3乃至AU7の区間については、オーディオエンコーダ41からの再符号化オーディオストリームにおける区間221を外部に出力し、そして、音声の合成処理が実際には行われていないAU8乃至AU10の区間については、スイッチ101から提供された符号化オーディオストリーム(オーディオストリーム#1)における区間222を外部に出力することができる。
Therefore, the
次に、図41および図42を参照して、再生装置20において再生可能なデータが記録された記録媒体21の製造方法について、記録媒体21がディスク状の記録媒体だった場合を例として説明する。
Next, with reference to FIG. 41 and FIG. 42, a method for manufacturing the
即ち、図41に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。 That is, as shown in FIG. 41, a master disc made of glass or the like is prepared, and a recording material made of photoresist or the like is applied thereon. As a result, a recording master is produced.
そして、図42に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置20において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、Playlist、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置20において再生可能な記録媒体21に記録されるソフトウェアが製作される。
Then, as shown in FIG. 42, video data in a format that can be played back by the
このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、図41に示すように、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。 This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. As shown in FIG. 41, the laser beam is modulated in response to the recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.
その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。 Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.
この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。 A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.
このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。 A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.
その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置20によって再生可能なデータが記録された記録媒体21が完成する。
Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図43に示されるようなパーソナルコンピュータ500により実行される。
The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a
図43において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
43, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a
CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
The
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。
The input /
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム格納媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software is installed from a network or a program storage medium.
このプログラム格納媒体は、図43に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
As shown in FIG. 43, this program storage medium is configured only by a package medium including a
なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.
また、ドライブ510は、装着されたリムーバブルメディア521に記録されたデータを読み出すことができるのみならず、装着されたリムーバブルメディア521にデータを記録することができる。そして、パーソナルコンピュータ500が、図42を用いて説明したソフト製作処理部と同様の機能を有する(例えば、CPU501を用いて、ソフト製作処理部と同様の機能を実現するためのプログラムを実行する)ことが可能であるのは言うまでもない。
Further, the
すなわち、パーソナルコンピュータ500は、図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、CPU501の処理により生成するか、または、外部の装置で生成された図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、通信部509またはドライブ510に装着されたリムーバブルメディア521を介して取得することができる。そして、パーソナルコンピュータ500は、生成または取得された図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、ドライブ510に装着されたリムーバブルメディア521に記録する記録装置としての機能を実現することができる。
That is, the
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
20 再生装置, 31 再生データ取得部, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 41 オーディオエンコーダ, 45 スイッチ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57,58 スイッチ, 71 バックグラウンドデコーダ, 72 ビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 スイッチ, 102 ミキシング処理部
20 playback device, 31 playback data acquisition unit, 32 switch, 33 AV decoder unit, 34 controller, 41 audio encoder, 45 switch, 51 to 54 buffer, 55, 56 PID filter, 57, 58 switch, 71 background decoder, 72 Video decoder, 73 presentation graphics decoder, 74 interactive graphics decoder, 75 audio decoder, 76 Text-ST composition, 77 switch, 91 background plane generation unit, 92 video plane generation unit, 93 presentation graphics plane generation unit, 94 interactive graphics plane generator, 95
Claims (9)
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段と
を備える再生装置。 Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
Re-encoding means for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesis means;
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream And a control device for prohibiting output to the outside.
請求項1に記載の再生装置。 The said control means further permits the output to the outside of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data in the second case. Playback device.
請求項1に記載の再生装置。 The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. The playback device according to claim 1, wherein in a third case corresponding to transmission or reception of an uncompressed audio signal, output of the re-encoded audio stream is prohibited.
請求項3に記載の再生装置。 4. The playback device according to claim 3, wherein the control unit further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case. 5. .
請求項1に記載の再生装置。 The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means The playback device according to claim 1, wherein it is determined whether or not the synthesis data to be synthesized with the encoded audio stream to be reproduced exists based on a data analysis result.
請求項1に記載の再生装置。 The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The playback apparatus according to claim 1, wherein a portion to be output is output in the form of the re-encoded audio stream, and the other portion is output in the form of the original encoded audio stream.
をさらに備える請求項1に記載の再生装置。 Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, The playback apparatus according to claim 1, further comprising a switching unit that switches to the uncompressed audio signal synthesized with the synthesis data.
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と
を備える再生装置の再生方法において、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップを含む再生方法。 Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
In a reproducing method of a reproducing apparatus, comprising: re-encoding means for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesizing means,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream A playback method that includes a step that prohibits output to the outside.
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と
を備える再生装置を制御するコンピュータに実行させるプログラムであって、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップを含むプログラム。 Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
A program that causes a computer that controls a playback device to include a re-encoding unit that performs a re-encoding process on the uncompressed audio signal combined with the synthesis data by the combining unit,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream A program that includes steps that prohibit external output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007028394A JP2008193604A (en) | 2007-02-07 | 2007-02-07 | Reproducing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007028394A JP2008193604A (en) | 2007-02-07 | 2007-02-07 | Reproducing apparatus and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008193604A true JP2008193604A (en) | 2008-08-21 |
Family
ID=39753233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007028394A Withdrawn JP2008193604A (en) | 2007-02-07 | 2007-02-07 | Reproducing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008193604A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130140A (en) * | 2008-11-26 | 2010-06-10 | Panasonic Corp | Apparatus and method of reproducing sound |
JP7342520B2 (en) | 2019-08-23 | 2023-09-12 | ヤマハ株式会社 | Video file processing methods and programs |
-
2007
- 2007-02-07 JP JP2007028394A patent/JP2008193604A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130140A (en) * | 2008-11-26 | 2010-06-10 | Panasonic Corp | Apparatus and method of reproducing sound |
JP7342520B2 (en) | 2019-08-23 | 2023-09-12 | ヤマハ株式会社 | Video file processing methods and programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4770601B2 (en) | Information processing apparatus, information processing method, program, and program storage medium | |
JP4081772B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM | |
JP4923751B2 (en) | REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF | |
JP4968506B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM | |
JP4251298B2 (en) | REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, PROGRAM STORAGE MEDIUM, DATA, RECORDING MEDIUM, RECORDING DEVICE, AND RECORDING MEDIUM MANUFACTURING METHOD | |
JP4822081B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING MEDIUM | |
JP4849343B2 (en) | Data generation method, recording apparatus and method, and program | |
JP2008193604A (en) | Reproducing apparatus and method, and program | |
JP4720676B2 (en) | Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium | |
JP4968562B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD | |
JP5234144B2 (en) | REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF | |
JP4821456B2 (en) | Information processing apparatus, information processing method, program, data structure, and recording medium | |
JP4900708B2 (en) | REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM | |
JP5201428B2 (en) | Data generation method, recording apparatus and method, and program | |
JP2008052836A (en) | Information processing apparatus, information processing method, program, and program storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100511 |