JP2008193604A - Reproducing apparatus and method, and program - Google Patents

Reproducing apparatus and method, and program Download PDF

Info

Publication number
JP2008193604A
JP2008193604A JP2007028394A JP2007028394A JP2008193604A JP 2008193604 A JP2008193604 A JP 2008193604A JP 2007028394 A JP2007028394 A JP 2007028394A JP 2007028394 A JP2007028394 A JP 2007028394A JP 2008193604 A JP2008193604 A JP 2008193604A
Authority
JP
Japan
Prior art keywords
stream
audio
data
audio stream
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007028394A
Other languages
Japanese (ja)
Inventor
Mitsukane Tanaka
光謙 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007028394A priority Critical patent/JP2008193604A/en
Publication of JP2008193604A publication Critical patent/JP2008193604A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To synthesize audio data as needed, and to prevent audio data from being deteriorated. <P>SOLUTION: A controller 34 appropriately controls a switch 45 and analyzes an encoded audio stream of a reproduction object acquired by a reproduction data acquisition section 32 to strictly determine presence/absence of the effect of re-encoding and performs control so as to avoid re-encoded audio stream from being output to the outside, as much as possible. Namely, if there is the effect of re-encoding, with respect to a non-compressed audio signal after audio synthesis processing from a mixing processing section 97, a re-encoded audio stream obtained as a result of re-encoding by an audio encoder 41 is output to the outside. In other cases, the non-compressed audio signal after audio synthesis processing from the mixing processing section 97 or an original encoded audio stream from a switch 101 is output to the outside. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、再生装置および方法並びにプログラムに関し、特に、再生される音声データの合成が可能なようになされている場合に用いて好適な再生装置および方法並びにプログラムに関する。   The present invention relates to a playback apparatus, method, and program, and more particularly, to a playback apparatus, method, and program suitable for use when audio data to be played back can be synthesized.

異なったコンテンツを同時視聴するために、複数のコンテンツの映像データをデコードした後、非圧縮の画像データを合成して、その後、D/A変換を実行し、映像出力端子へ出力して、外部の表示装置に表示させる技術がある(例えば、特許文献1)。   In order to view different contents simultaneously, after decoding video data of multiple contents, uncompressed image data is synthesized, then D / A conversion is performed and output to the video output terminal. There is a technique for displaying on a display device (for example, Patent Document 1).

特開2005−20242号公報Japanese Patent Laying-Open No. 2005-20242

上述した特許文献1のように、ビデオデータを合成するためには、圧縮符号化されたビデオデータをそれぞれ復号し、非圧縮のビデオデータを合成する必要がある。これば、ビデオデータのみならず、オーディオデータであっても同様であり、オーディオデータを合成する場合には、非圧縮のオーディオデータを用いなければならない。   As described in Patent Document 1 described above, in order to synthesize video data, it is necessary to decode each compression-coded video data and synthesize uncompressed video data. This applies to audio data as well as video data. When audio data is synthesized, uncompressed audio data must be used.

また、出力先の機器が有する機能、または、出力先の機器との接続方法によっては、出力データは、符号化されたデータでなければならない場合がある。   Depending on the function of the output destination device or the connection method with the output destination device, the output data may have to be encoded data.

主に出力される音声データに対して、他の音声データが合成され、出力される音声データは、符号化データである場合の処理について、図1を用いて説明する。   The processing when the other audio data is synthesized with the audio data mainly output and the output audio data is encoded data will be described with reference to FIG.

第1の音声データ取得部11は、例えば、光ディスクから読み出されて供給された圧縮符号化された第1の音声データを取得し、復号部12に供給する。第1の音声データは、そのコンテンツにおいて、常時再生出力される音声データであるものとする。復号部12は、第1の音声データ取得部11から供給された、圧縮符号化された第1の音声データを復号し、非圧縮の第1の音声データを、合成部14に供給する。   The first audio data acquisition unit 11 acquires, for example, compression-encoded first audio data read and supplied from the optical disc, and supplies the first audio data to the decoding unit 12. It is assumed that the first audio data is audio data that is always reproduced and output in the content. The decoding unit 12 decodes the compression-coded first audio data supplied from the first audio data acquisition unit 11 and supplies the uncompressed first audio data to the synthesis unit 14.

第2の音声データ取得部13は、非圧縮の第2の音声データを取得し、合成部14に供給する。合成部14は、第2の音声データ取得部13から非圧縮の第2の音声データの供給を受け、第2の音声データを、復号部12から供給された非圧縮の第1の音声データと合成し、合成された音声データを符号化部15に供給する。   The second audio data acquisition unit 13 acquires uncompressed second audio data and supplies it to the synthesis unit 14. The synthesizer 14 receives the supply of uncompressed second audio data from the second audio data acquisition unit 13, and converts the second audio data into the uncompressed first audio data supplied from the decoder 12. The synthesized voice data is supplied to the encoding unit 15.

符号化部15は、供給された音声データを符号化し、デジタルインターフェース16に供給する。デジタルインターフェースは、供給された符号化データを、所定のネットワークを介して、他の装置などに送出する。   The encoding unit 15 encodes the supplied audio data and supplies the encoded audio data to the digital interface 16. The digital interface sends the supplied encoded data to another device or the like via a predetermined network.

この非圧縮の第2の音声データは、そのコンテンツに対して用意されている場合と用意されていない場合がある。すなわち、コンテンツによっては、第2の音声データ取得部13が、非圧縮の第2の音声データを取得しないようになされている場合や、コンテンツの所定の部分のみ、第2の音声データが用意され、第2の音声データ取得部13が、所定の部分のみの非圧縮の第2の音声データを取得するようになされている場合などがある。合成部14は、第2の音声データ取得部13から非圧縮の第2の音声データの供給を受けない場合、復号部12から供給された非圧縮の第1の音声データを符号化部15に供給する。   This uncompressed second audio data may or may not be prepared for the content. That is, depending on the content, the second audio data acquisition unit 13 is configured not to acquire the uncompressed second audio data, or the second audio data is prepared only for a predetermined part of the content. In some cases, the second sound data acquisition unit 13 is configured to acquire uncompressed second sound data of only a predetermined portion. When the synthesis unit 14 does not receive the supply of uncompressed second audio data from the second audio data acquisition unit 13, the synthesis unit 14 sends the uncompressed first audio data supplied from the decoding unit 12 to the encoding unit 15. Supply.

図1を用いて説明した装置において、主に再生出力される第1の音声データに対して、第2の音声データが合成されるコンテンツと合成されないコンテンツの両方を再生出力可能なようになされている場合、または、同一コンテンツの所定の部分のみ、第2の音声データを合成することが可能なようになされている場合、従来では、再生出力する装置において、第2の音声データが合成されるか否か(第2の音声データが存在するか否か)を検出することができなかった。   In the apparatus described with reference to FIG. 1, the first audio data mainly reproduced and output can be reproduced and output both the content synthesized with the second audio data and the content not synthesized. If it is possible to synthesize the second audio data only for a predetermined part of the same content, conventionally, the second audio data is synthesized in the reproduction output device. It was not possible to detect whether or not the second audio data exists.

したがって、第1の音声データは、第2の音声データが合成されないコンテンツ、または、第2の音声データが合成されない部分であっても、第2の音声データが合成される場合と同様に、復号され、再符号化されるようになされていた。そのため、第1の音声データは、常に復号および再符号化のために、音質が劣化してしまう。   Therefore, the first audio data is decoded in the same manner as the case where the second audio data is synthesized even if the content is not synthesized with the second audio data or the portion where the second audio data is not synthesized. And re-encoded. Therefore, the sound quality of the first sound data is always deteriorated due to decoding and re-encoding.

本発明はこのような状況に鑑みてなされたものであり、必要に応じて音声データの合成を実現するとともに、音声データの劣化をできるだけ防ぐことができるようにするものである。   The present invention has been made in view of such a situation, and is intended to realize synthesis of audio data as necessary and to prevent deterioration of the audio data as much as possible.

本発明の一側面の画像処理装置は、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と、前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段とを備える。   An image processing apparatus according to an aspect of the present invention includes a reproduction data acquisition unit that acquires reproduction data including an encoded audio stream, and a decoding that performs a decoding process on the encoded audio stream acquired by the reproduction data acquisition unit Means for synthesizing the uncompressed audio signal obtained as a result of the decoding process by the decoding means with synthesis data that is data to be synthesized with the uncompressed audio signal; Re-encoding means for performing re-encoding processing on the synthesized non-compressed audio signal, and the encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, and is synthesized The first data in which the data for synthesis exists and the user permits or instructs the synthesis , Allowing the output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means, and outputting the re-encoded audio stream to the outside in the second case other than that. Control means for prohibiting.

前記制御手段は、さらに、前記第2の場合、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する。   In the second case, the control means also permits the output of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data to the outside.

前記制御手段は、さらに、再生対象の前記符号化オーディオストリームが有するチャンネル数を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器が、判別した前記チャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合には、前記再符号化オーディオストリームの出力を禁止する。   The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. In the third case corresponding to transmission or reception of an uncompressed audio signal, output of the re-encoded audio stream is prohibited.

前記制御手段は、さらに、前記第1の場合であって前記第3の場合、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する。   The control means further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case.

前記制御手段は、前記第1の場合であるか前記第2の場合であるかの判断処理の少なくとも一部として、前記再生データ取得手段により取得された前記再生データに含まれるインタラクティブグラフィックスストリームのデータの解析結果に基づいて、再生対象の前記符号化オーディオストリームに合成させるための前記合成用データが存在するか否かを判断する。   The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means Based on the data analysis result, it is determined whether or not the data for synthesis to be synthesized with the encoded audio stream to be reproduced exists.

前記制御手段は、さらに、前記合成手段により前記非圧縮オーディオ信号に対して前記合成用データが合成された合成部分を認識し、再生対象の前記符号化オーディオストリームのうちの、その合成部分に対応する部分については、前記再符号化オーディオストリームの形態で出力し、それ以外の部分については、元の前記符号化オーディオストリームのままの形態で出力する。   The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The part to be output is output in the form of the re-encoded audio stream, and the other part is output in the form of the original encoded audio stream.

前記制御手段の制御に基づいて、前記第1の場合、外部への出力を、前記再符号化オーディオストリームに切り替え、前記第2の場合、外部への出力を、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号に切り替える切り替え手段をさらに備える。   Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, Alternatively, a switching means for switching to the uncompressed audio signal synthesized with the synthesis data is further provided.

本発明の一側面の画像処理方法およびプログラムは、上述した本発明の一側面の画像理装置に対応する方法およびプログラムである。   An image processing method and program according to one aspect of the present invention are a method and program corresponding to the above-described image processing apparatus according to one aspect of the present invention.

本発明の一側面の画像処理装置および方法、並びにプログラムにおいては、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段とを備える再生装置を対象として、次のような処理が実行される。即ち、前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力が許可され、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止される。   In the image processing apparatus and method, and the program according to one aspect of the present invention, reproduction data acquisition means for acquiring reproduction data including an encoded audio stream, and the encoded audio stream acquired by the reproduction data acquisition means Decoding means for performing decoding processing, combining means for combining data for combining with an uncompressed audio signal obtained as a result of the decoding processing by the decoding means, and data for combining The following processing is executed for a playback apparatus including re-encoding means for performing re-encoding processing on the uncompressed audio signal combined with data. In other words, the encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combination data to be combined there exists, and the user permits or instructs the combination In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means is permitted, and in the second case other than that, the re-encoded audio is output. Output outside the stream is prohibited.

以上のごとく、本発明の第1の側面によれば、音声(オーディオ)データを再生することができ、特に、必要に応じて音声データの合成を実現するとともに、再符号化音声データ(再符号化オーディオストリーム)の出力の可否を制御することで、音声データの劣化をできるだけ防ぐことができるようにするものである。   As described above, according to the first aspect of the present invention, it is possible to reproduce audio (audio) data. In particular, it realizes synthesis of audio data as necessary, and re-encoded audio data (re-encoding). The audio data is prevented from being deteriorated as much as possible by controlling whether or not the (audio stream) can be output.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

本発明の一側面の情報処理装置(例えば図37の再生装置20)は、
符号化オーディオストリームを含む再生データを取得する再生データ取得手段(例えば図37の再生データ取得部31)と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段(例えば図37の1stオーディオデコーダ75−1)と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段(例えば図37のミキシング処理部102,97)と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段(例えば図37のオーディオエンコーダ41)と、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段(例えば図38のオーディオ信号再生処理を実行する図37のコントローラ34)と
を備える。
An information processing apparatus according to one aspect of the present invention (for example, the playback apparatus 20 in FIG. 37)
Reproduction data acquisition means (for example, reproduction data acquisition unit 31 in FIG. 37) for acquiring reproduction data including an encoded audio stream;
Decoding means (for example, 1st audio decoder 75-1 in FIG. 37) for performing decoding processing on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit (for example, mixing processing units 102 and 97 in FIG. 37) for synthesizing synthesis data that is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
Re-encoding means (for example, audio encoder 41 in FIG. 37) for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesis means;
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream Control means for prohibiting output to the outside (for example, the controller 34 in FIG. 37 for executing the audio signal reproduction processing in FIG. 38).

前記制御手段は、さらに、前記第2の場合、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する(例えば図38のステップS3,S8,S15等の処理を実行する)。   The control means further permits the output of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data to the outside in the second case (for example, step of FIG. 38). (S3, S8, S15, etc. are executed).

前記制御手段は、さらに、再生対象の前記符号化オーディオストリームが有するチャンネル数を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器が、判別した前記チャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合(例えば、図38のステップS18の処理でYESであると判定した場合)には、前記再符号化オーディオストリームの出力を禁止する。   The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. In the third case corresponding to transmission or reception of an uncompressed audio signal (for example, when it is determined YES in step S18 of FIG. 38), the output of the re-encoded audio stream is prohibited. To do.

前記制御手段は、さらに、前記第1の場合であって前記第3の場合、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する(例えば図38のステップS20の処理を実行する)。   The control means further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case (for example, in step S20 of FIG. 38). Process).

前記制御手段は、前記第1の場合であるか前記第2の場合であるかの判断処理の少なくとも一部として、前記再生データ取得手段により取得された前記再生データに含まれるインタラクティブグラフィックスストリームのデータ(例えば図37のインタラクティブグラフィックスプレーン生成部94により生成されるデータ)の解析結果に基づいて、再生対象の前記符号化オーディオストリームに合成させるための前記合成用データが存在するか否かを判断する。   The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means Based on the analysis result of the data (for example, the data generated by the interactive graphics plane generating unit 94 in FIG. 37), it is determined whether or not the synthesis data to be synthesized with the encoded audio stream to be reproduced exists. to decide.

前記制御手段は、さらに、前記合成手段により前記非圧縮オーディオ信号に対して前記合成用データが合成された合成部分を認識し、再生対象の前記符号化オーディオストリームのうちの、その合成部分に対応する部分については、前記再符号化手段による前記再符号化処理の結果得られる前記再符号化オーディオストリームの形態で出力し(例えば図40の区間221として出力し)、それ以外の部分については、前記符号化オーディオストリームのままの形態で出力する(例えば図40の区間220,222として出力する)。   The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The portion to be output is output in the form of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit (for example, output as the section 221 in FIG. 40), and other portions are The encoded audio stream is output as it is (for example, output as sections 220 and 222 in FIG. 40).

前記制御手段の制御に基づいて、前記第1の場合、外部への出力を、前記再符号化オーディオストリームに切り替え、前記第2の場合、外部への出力を、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号に切り替える切り替え手段(例えば図37のスイッチ45)をさらに備える。   Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, Alternatively, it further includes switching means (for example, switch 45 in FIG. 37) for switching to the uncompressed audio signal synthesized with the synthesis data.

本発明の一側面の再生方法は、
符号化オーディオストリームを含む再生データを取得する再生データ取得手段(例えば図37の再生データ取得部31)と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段(例えば図37の1stオーディオデコーダ75−1)と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段(例えば図37のミキシング処理部102,97)と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段(例えば図37のオーディオエンコーダ41)と
を備える再生装置(例えば図37の再生装置20)の再生方法において、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップ(例えば図37のコントローラ34が実行する図38のオーディオ信号再生処理の各ステップ)を含む。
A playback method according to one aspect of the present invention includes:
Reproduction data acquisition means (for example, reproduction data acquisition unit 31 in FIG. 37) for acquiring reproduction data including an encoded audio stream;
Decoding means (for example, 1st audio decoder 75-1 in FIG. 37) for performing decoding processing on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit (for example, mixing processing units 102 and 97 in FIG. 37) for synthesizing synthesis data that is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
Reproduction means (for example, reproduction of FIG. 37), comprising: re-encoding means (for example, audio encoder 41 of FIG. 37) for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesis means. In the playback method of the apparatus 20),
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream This includes a step of prohibiting output to the outside (for example, each step of the audio signal reproduction process of FIG. 38 executed by the controller 34 of FIG. 37).

本発明の一側面のプログラムは、上述した本発明の一側面の情報処理方法に対応するプログラムであって、例えば図43のコンピュータ500により実行される。   A program according to one aspect of the present invention is a program corresponding to the information processing method according to one aspect of the present invention described above, and is executed by, for example, the computer 500 in FIG.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2を用いて、本発明を適用した再生装置について説明する。   A reproducing apparatus to which the present invention is applied will be described with reference to FIG.

再生装置20は、装着された、例えば、光ディスクなどの記録媒体21に記録されている情報、ネットワーク22を介して供給された情報、または、自分自身の内部の記録媒体(例えば、HDDなど)に記録されている情報を再生することができる。再生装置20は、再生されたデータを、有線または無線により接続されている表示・音声出力装置23に供給して、画像を表示させ、音声を出力させることができる。再生装置20はまた、再生されたデータを、ネットワーク22を介して、他の装置に送出することができる。再生装置20は、例えば、リモートコマンダ24のほか、本体に備えられたボタン等の入力デバイスによって、ユーザからの操作入力を受けることができる。   For example, the playback device 20 may be connected to information recorded on a recording medium 21 such as an optical disc, information supplied via the network 22, or a recording medium (for example, an HDD) within itself. The recorded information can be reproduced. The reproduction device 20 can supply the reproduced data to a display / audio output device 23 connected by wire or wirelessly to display an image and output sound. The playback device 20 can also send the played back data to other devices via the network 22. For example, the playback device 20 can receive an operation input from the user by an input device such as a button provided in the main body in addition to the remote commander 24.

記録媒体21は、再生装置20により再生可能な映像および音声を含むデータを所定のフォーマットで記録している。記録媒体21は、光ディスクの他、例えば、磁気ディスクや半導体メモリであってもよい。   The recording medium 21 records data including video and audio that can be played back by the playback device 20 in a predetermined format. The recording medium 21 may be, for example, a magnetic disk or a semiconductor memory in addition to the optical disk.

表示・音声出力装置23が、デジタルの非圧縮データの入力を受けるようになされている場合、再生装置20は、記録媒体21などに記録されている符号化データを復号して、非圧縮データを表示・音声出力装置23に供給するようになされているが、表示・音声出力装置23が、復号機能を有し、圧縮データの入力を受けるようになされている場合、再生装置20は、圧縮データを表示・音声出力装置23に供給するようになされている。また、表示・音声出力装置23が、非圧縮のアナログデータの入力を受けるようになされている場合、再生装置20は、記録媒体21などに記録されている符号化データを復号して、非圧縮データをD/A変換してアナログ信号を生成し、表示・音声出力装置23に供給するようになされている。再生装置20はまた、記録媒体21などに記録されているデータを再生し、圧縮データの状態で、ネットワーク22に送出する。   When the display / audio output device 23 receives digital uncompressed data, the playback device 20 decodes the encoded data recorded on the recording medium 21 or the like, and outputs the uncompressed data. When the display / audio output device 23 has a decoding function and receives compressed data input, the playback device 20 uses the compressed data. Is supplied to the display / audio output device 23. Further, when the display / audio output device 23 is configured to receive input of uncompressed analog data, the playback device 20 decodes the encoded data recorded in the recording medium 21 or the like to perform non-compression. Data is D / A converted to generate an analog signal and supplied to the display / audio output device 23. The playback device 20 also plays back data recorded on the recording medium 21 and sends it to the network 22 in a compressed data state.

図3は、図2の再生装置20によって再生可能な情報、すなわち、再生装置20に装着される記録媒体21に記録されているデータ、ネットワーク22を介して供給されるデータ、または、再生装置20の内部の記録媒体に記録されているデータのアプリケーションフォーマットの例を示す図である。   3 shows information that can be played back by the playback device 20 of FIG. 2, that is, data recorded on the recording medium 21 attached to the playback device 20, data supplied via the network 22, or playback device 20 It is a figure which shows the example of the application format of the data currently recorded on the internal recording medium.

アプリケーションフォーマットは、AV(Audio Visual)ストリームの管理のために、PlayListとClipの2つのレイヤを有している。ここでは、1つのAVストリームとそれに付随する情報であるClipインフォメーションのペアを1つのオブジェクトと考え、それらをまとめてClipと称する。以下、AVストリームをAVストリームファイルとも称する。また、ClipインフォメーションをClipインフォメーションファイルとも称する。   The application format has two layers, PlayList and Clip, for managing AV (Audio Visual) streams. Here, a pair of one AV stream and Clip information as information accompanying the AV stream is considered as one object, and these are collectively referred to as a Clip. Hereinafter, the AV stream is also referred to as an AV stream file. Clip information is also referred to as a Clip information file.

一般的に、コンピュータ等で用いられるファイルはバイト列として扱われるが、AVストリームファイルのコンテンツは時間軸上に展開され、Clipのアクセスポイントは、主に、タイムスタンプでPlayListにより指定される。すなわち、PlayListとClipは、AVストリームの管理のためのレイヤである。   In general, a file used in a computer or the like is handled as a byte string, but the content of an AV stream file is expanded on the time axis, and an access point of a clip is mainly designated by a PlayList with a time stamp. That is, PlayList and Clip are layers for AV stream management.

Clip中のアクセスポイントがタイムスタンプでPlayListにより示されている場合、Clip Informationファイルは、タイムスタンプから、AVストリームファイル中のデコードを開始すべきアドレス情報を見つけるために使用される。   When the access point in the Clip is indicated by the PlayList with a time stamp, the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.

PlayListは、AVストリームの再生区間の集まりである。あるAVストリーム中の1つの再生区間はPlayItemと呼ばれ、それは、時間軸上の再生区間のIN点(再生開始点)とOUT点(再生終了点)のペアで表される。従って、PlayListは、図3に示されるように1つ、または複数のPlayItemにより構成される。   The PlayList is a collection of AV stream playback sections. One playback section in a certain AV stream is called PlayItem, which is represented by a pair of an IN point (playback start point) and an OUT point (playback end point) of the playback section on the time axis. Accordingly, the PlayList is composed of one or a plurality of PlayItems as shown in FIG.

図3において、左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照されている。また、左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照されている。さらに、左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照されている。   In FIG. 3, the first PlayList from the left is composed of two PlayItems, and the two PlayItems refer to the first half and the second half of the AV stream included in the left Clip, respectively. Also, the second PlayList from the left is composed of one PlayItem, whereby the entire AV stream included in the right Clip is referenced. Further, the third PlayList from the left is composed of two PlayItems, and the two PlayItems refer to a portion of the AV stream included in the left Clip and a portion of the AV stream included in the right Clip, respectively. ing.

ナビゲーションプログラムは、PlayListの再生の順序や、PlayListのインタラクティブな再生をコントロールする機能を有する。また、ナビゲーションプログラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能なども有する。このナビゲーションプログラムは、例えば、Java(登録商標)などのプログラミング言語で記述される。   The navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList. The navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions. This navigation program is described in a programming language such as Java (registered trademark).

例えば、図3のナビゲーションプログラムにより、そのときの再生位置を表す情報として、左から1番目のPlayListに含まれる左側のPlayItemが指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。このように、PlayListは、AVストリームファイルの再生を管理するための再生管理情報として用いられる。   For example, when the left PlayItem included in the first PlayList from the left is specified as information representing the playback position at that time by the navigation program of FIG. 3, the AV included in the left Clip referred to by the PlayItem The first half of the stream is played back. Thus, the PlayList is used as playback management information for managing playback of AV stream files.

ナビゲーションプログラムは、インデックステーブル(Index table)と、インデックステーブルにより読み出されるナビゲーションオブジェクト(Navigation Object)により構成される。図4を用いて、インデックステーブルとナビゲーションオブジェクトについて説明する。   The navigation program includes an index table and a navigation object that is read by the index table. The index table and the navigation object will be described with reference to FIG.

インデックステーブルは、コンテンツのタイトルやメニューの定義を行うものであり、各タイトルやメニューのエントリーポイントを保持している。FirstPlaybackには、このデータを記録している記録媒体21が再生装置20に装着されたときなど、インデックステーブルが読み込まれたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれている。TopMenuには、ユーザが、コンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれている。それぞれのTitleは、所定のTitle IDで区別されるタイトルごとに割り当てられて呼び出すことが可能なNavigationObjectに関する情報が含まれている。この図4においては、1つのTitleに付き1つのNavigation Commandが存在している。   The index table defines content titles and menus, and holds entry points for each title and menu. FirstPlayback includes information related to the NavigationObject that is automatically executed first when the index table is read, such as when the recording medium 21 on which this data is recorded is loaded in the playback device 20. In TopMenu, the NavigationObject of TopMenu that is called when the user displays a playback menu screen that includes content items such as playing all content, playing only a specific chapter, playing repeatedly, displaying the initial menu, etc. Contains information about. Each Title includes information on a NavigationObject that can be assigned and called for each title distinguished by a predetermined Title ID. In FIG. 4, there is one navigation command per title.

ナビゲーションオブジェクトは、実行可能なコマンドであるNavigation commandから成っている。Navigation Commandは、例えば、PlayListの再生や、他のNavigation Objectの呼び出しなどの各種コマンドを含む。例えば、Navigation Command#3に、PlayList#1を再生するための命令文が含まれる場合、Navigation Command#3を実行すると、PlayList#1が再生される。   The navigation object consists of a navigation command that is an executable command. The Navigation Command includes, for example, various commands such as PlayList playback and calling other Navigation Objects. For example, when Navigation Command # 3 includes a command statement for playing PlayList # 1, when Navigation Command # 3 is executed, PlayList # 1 is played.

インデックステーブルを含むデータファイルであるIndexファイルについては、図9乃至図11を用いて後述する。   The Index file that is a data file including the index table will be described later with reference to FIGS.

本実施の形態では、PlayListの中で、1つ以上のPlayItemの並びによって(連続するPlayItemにより)作られる再生パスをメインパス(Main Path)と称し、PlayListの中で、Main Pathに並行(並列)して、1つ以上のSub Pathの並びによって(非連続でもよいし、連続してもよいSubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。すなわち、再生装置20で再生可能なデータのアプリケーションフォーマットは、メインパスに関連付けられて(合わせて)再生されるサブパス(Sub Path)を、PlayListの中に持つ(関連付けられる)ようになされている。   In this embodiment, a playback path created by a sequence of one or more PlayItems (by successive PlayItems) in the PlayList is called a main path (Main Path), and in the PlayList, parallel to the Main Path (in parallel) ) And a playback path created by a sequence of one or more sub paths (which may be discontinuous or may be continuous) is referred to as a sub path. In other words, the application format of data that can be played back by the playback device 20 has a sub-path (Sub Path) that is played back in association with (in association with) the main path in the PlayList.

図5は、メインパスとサブパスの構造を説明する図である。PlayListは、1つのメインパスと1つ以上のサブパスを持つことができる。1つのメインパスは、1つ以上のPlayItemの並びによって作られ、1つのサブパスは、1つ以上のSubPlayItemの並びによって作られる。   FIG. 5 is a diagram for explaining the structure of the main path and the sub path. The PlayList can have one main path and one or more sub paths. One main path is created by a sequence of one or more PlayItems, and one sub-path is created by a sequence of one or more SubPlayItems.

図5の例の場合、PlayListは、3つのPlayItemの並びにより作られる1つのメインパスと、3つのサブパスを有している。メインパスを構成するPlayItemには、先頭から順番にそれぞれID(Identification)が付されている。具体的には、メインパスは、PlayItem_id=0、PlayItem_id=1、およびPlayItem_id=2のPlayItemからなる。また、サブパスにも先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2、とそれぞれIDが付されている。Subpath_id=0のサブパスには、1つのSubPlayItemが含まれ、Subpath_id=1のサブパスには、2つのSubPlayItemが含まれ、Subpath_id=2のサブパスには、1つのSubPlayItemが含まれる。   In the case of the example in FIG. 5, the PlayList has one main path made up of a sequence of three PlayItems and three sub paths. Each PlayItem constituting the main path is assigned ID (Identification) in order from the top. Specifically, the main path is made up of PlayItems with PlayItem_id = 0, PlayItem_id = 1, and PlayItem_id = 2. Subpaths are also assigned IDs in order from the top, Subpath_id = 0, Subpath_id = 1, and Subpath_id = 2. The subpath with Subpath_id = 0 includes one SubPlayItem, the subpath with Subpath_id = 1 includes two SubPlayItems, and the subpath with Subpath_id = 2 includes one SubPlayItem.

Subpath_id=0のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画の日本語吹き替えの音声と想定され、Mainpathにより参照されるAVストリームファイルのオーディオストリームに替えて再生される場合が考えられる。また、Subpath_id=1のサブパスに含まれるSubPlayItemが参照するストリームは、例えば、映画のディレクターズカットと想定され、Main Pathにより参照されるAVストリームファイルの所定の部分にのみ、映画監督などのコメントが入っている場合が考えられる。   The stream referred to by the SubPlayItem included in the subpath of Subpath_id = 0 is assumed to be, for example, a Japanese dubbing sound of a movie, and may be played in place of the audio stream of the AV stream file referenced by Mainpath. Also, the stream referred to by SubPlayItem included in the subpath of Subpath_id = 1 is assumed to be a director's cut of a movie, for example, and a comment such as a movie director is included only in a predetermined part of the AV stream file referred to by Main Path. The case is considered.

1つのPlayItemが参照するClip AVストリームファイルには、少なくともビデオストリームデータ(メイン画像データ)が含まれる。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリーム(メイン画像データ)と同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。さらに、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるビットマップ字幕ストリームが1つ以上含まれてもよいし、含まれなくてもよい。また、Clip AVストリームファイルには、Clip AVストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラクティブグラフィックスストリームが1つ以上含まれてもよいし、含まれなくてもよい。そして、Clip AVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタイミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、またはインタラクティブグラフィックスストリームとは多重化されている。すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリームデータと、そのビデオストリームに合わせて再生される0個以上のオーディオストリーム、0個以上のビットマップ字幕ストリームデータ、および0個以上のインタラクティブグラフィックスストリームデータとが多重化されている。   A Clip AV stream file referred to by one PlayItem includes at least video stream data (main image data). In addition, the Clip AV stream file may or may include one or more audio streams that are played back at the same timing (synchronously) as the video stream (main image data) included in the Clip AV stream file. It does not have to be. Furthermore, the Clip AV stream file may or may not include one or more bitmap subtitle streams that are played back at the same timing as the video stream included in the Clip AV stream file. The Clip AV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the Clip AV stream file. The video stream included in the Clip AV stream file and the audio stream, bitmap subtitle stream file, or interactive graphics stream reproduced at the same timing as the video stream are multiplexed. That is, a Clip AV stream file referred to by one PlayItem includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero or more. The interactive graphics stream data is multiplexed.

すなわち、1つのPlayItemが参照するClip AVストリームファイルには、ビデオストリーム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラクティブグラフィックスストリームなどの、複数の種類のストリームが含まれている。   That is, a Clip AV stream file referred to by one PlayItem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream.

また、1つのSubPlayItemは、PlayItemが参照するClip AVストリームファイルとは
なるストリーム(別ストリーム)のオーディオストリームデータや字幕データを参照する。
Also, one SubPlayItem refers to audio stream data and subtitle data of a stream (another stream) that is a Clip AV stream file referred to by the PlayItem.

メインパスのみを有するPlayListを再生する場合、ユーザによる音声切り替えや字幕切り替えという操作は、そのメインパスが参照するClipに多重化されているオーディオストリームとサブピクチャストリームの中からしか音声や字幕を選択することができない。これに対し、メインパスとサブパスを持つPlayListを再生する場合、そのメインパスが参照するClip AVストリームファイルに多重化されているオーディオストリームとサブピクチャストリームに加えて、SubPlayItemが参照するClipのオーディオストリームやサブピクチャストリームを参照することができる。   When playing a PlayList that has only the main path, the user can select audio and subtitles only from the audio stream and sub-picture stream multiplexed in the clip referenced by the main path. Can not do it. On the other hand, when playing a PlayList having a main path and a sub path, in addition to the audio stream and sub picture stream multiplexed in the Clip AV stream file referenced by the main path, the clip audio stream referenced by the SubPlayItem Or a sub-picture stream.

このように、1つのPlayListの中にSubPathを複数含め、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、MainPathで参照されるClip AVストリームに加えて、後で、SubPlayItemを追加できる構成とすることができる。   In this way, since a plurality of SubPaths are included in one PlayList and each SubPath refers to each SubPlayItem, an AV stream with high expandability and high flexibility can be realized. In other words, in addition to the Clip AV stream referred to by MainPath, a SubPlayItem can be added later.

図6は、メインパスとサブパスの例を説明する図である。図6においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。   FIG. 6 is a diagram illustrating an example of a main path and a sub path. In FIG. 6, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path.

図6のPlayListには、メインパスとして、PlayItem_id=0である1つのPlayItemと、サブパスとして1つのSubPlayItemが含まれている。メインパスのPlayItem_id=0である1つのPlayItem()は、図6のメインAVストリームを参照している。SubPlayItem()には、以下に示すデータが含まれる。まず、SubPlayItem ()には、PlayListの中のSub Path(サブパス)が参照するClipを指定するためのClip_Information_file_nameが含まれる。図6の例の場合、SubPlayItemによって、SubClip_entry_id=0のAuxiliary audio stream(オーディオストリーム)が参照されている。また、SubPlayItem ()には、指定されたClipに含まれるストリーム(ここでは、Auxiliary audio stream)中のSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeとが含まれる。さらに、SubPlayItem()には、Main pathの時間軸上でSub Pathが再生開始する時刻を指定するためのsync_PlayItem_idとsync_start_PTS_of_PlayItemとが含まれる。図6の例の場合、sync_PlayItem_id=0とされ、sync_start_PTS_of_PlayItem=t1とされている。これにより、メインパスのPlayItem_id=0の時間軸上でSub Pathが再生を開始する時刻t1を指定することができる。すなわち、図6の例の場合では、メインパスの再生開始時刻t1とサブパスの開始時刻t1が同時刻であることを示している。   The PlayList in FIG. 6 includes one PlayItem with PlayItem_id = 0 as a main path and one SubPlayItem as a sub path. One PlayItem () with PlayItem_id = 0 in the main path refers to the main AV stream in FIG. SubPlayItem () includes the following data. First, SubPlayItem () includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList. In the example of FIG. 6, an auxiliary audio stream (audio stream) with SubClip_entry_id = 0 is referred to by SubPlayItem. Also, SubPlayItem () includes SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the stream (Auxiliary audio stream in this case) included in the specified Clip. Further, SubPlayItem () includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for specifying the time at which the Sub Path starts to be reproduced on the time axis of the Main path. In the case of the example in FIG. 6, sync_PlayItem_id = 0 and sync_start_PTS_of_PlayItem = t1. As a result, it is possible to specify the time t1 at which the Sub Path starts playback on the time axis of PlayItem_id = 0 of the main path. That is, in the case of the example in FIG. 6, the reproduction start time t1 of the main path and the start time t1 of the sub path are the same time.

ここで、Sub Pathに参照されるオーディオのClip AVストリームは、STC不連続点(システムタイムベースの不連続点)を含んではならない。サブパスに使われるClipに含まれるストリームのオーディオサンプルのクロックは、メインパスに使われるClipに含まれるストリームのオーディオサンプルのクロックにロックされている。   Here, the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities). The clock of the audio sample of the stream included in the Clip used for the sub path is locked to the clock of the audio sample of the stream included in the Clip used for the main path.

換言すると、SubPlayItem()には、Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報が含まれている。Sub Pathに使われるClip AVストリームがSTCを含まないため、SubPlayItem()に含まれる情報(Sub Pathが参照するClipを指定する情報、Sub Pathの再生区間を指定する情報、およびMain pathの時間軸上でSub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照するClip AVストリーム(メインAVストリーム)とは異なるClip AVストリームのオーディオストリームを参照して、再生することができる。   In other words, in SubPlayItem (), information specifying the Clip referred to by the Sub Path, information specifying the playback section of the Sub Path, and information specifying the time when the Sub Path starts playback on the time axis of the Main path It is included. Since the Clip AV stream used in Sub Path does not include STC, information included in SubPlayItem () (information specifying Clip referred to by Sub Path, information specifying Sub Path playback section, and time axis of Main path) Based on the above (information specifying the time when the Sub Path starts playback), the audio stream of the Clip AV stream different from the Clip AV stream (main AV stream) referred to by the main path can be referred to and reproduced. it can.

このように、PlayItemとSubPlayItemは、Clip AVストリームファイルをそれぞれ管理するものであり、ここでは、PlayItemが管理するClip AVストリームファイル(メインAVストリーム)とSubPlayItemが管理するClip AVストリームファイルは異なるファイルとなる。   In this way, PlayItem and SubPlayItem manage Clip AV stream files, respectively. Here, the Clip AV stream file (main AV stream) managed by PlayItem and the Clip AV stream file managed by SubPlayItem are different from each other. Become.

なお、図6の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム再生パスを、サブパスを使用して表すこともできる。   Similar to the example of FIG. 6, a subtitle stream playback path that is played back at the same timing as the main path can be expressed using a sub path.

図7は、メインパスとサブパスの別の例を説明する図である。図7においては、メインパスと同じタイミングで(AV同期して)再生されるオーディオの再生パスを、サブパスを使用して表している。ここで、メインパスのPlayItemが参照するメインAVストリームファイルは、図6と同様であるので省略している。   FIG. 7 is a diagram illustrating another example of the main path and the sub path. In FIG. 7, an audio playback path that is played back at the same timing as the main path (synchronized with AV) is represented using a sub path. Here, the main AV stream file referred to by PlayItem in the main path is the same as in FIG.

例えば、メインパスにより参照されるClipAVストリームを1つの映画のコンテンツ(AVコンテンツ)とし、サブパスのオーディオパスにより参照されるAuxiliary audio streamをその映画に対する監督のコメントとし、メインパスで参照されるClipAVストリームのオーディオストリームにサブパスのオーディオパスで参照されるAuxiliary audio streamをミキシング(重ねて)再生するような場合に、このような構成が利用される。すなわち、ユーザが、映画を見ながら、その映画に対する監督のコメントを合わせて聞く指令を再生装置(プレーヤ)へ入力した場合、例えば、メインパスで参照されるClipAVストリームの音声と、サブパスのオーディオパスで参照されるAuxiliary audio streamとを、ミキシングして再生させる場合に利用される。   For example, a clip AV stream referred to by the main path is set as one movie content (AV content), an auxiliary audio stream referenced by the sub-path audio path is set as a director's comment for the movie, and a clip AV stream referred to by the main path is used. Such a configuration is used when the auxiliary audio stream referred to in the sub-path audio path is mixed (overlaid) with the audio stream. That is, when the user inputs a command to listen to the director's comment together with the movie while watching the movie, for example, the audio of the Clip AV stream referenced in the main path and the audio path of the sub path This is used when the Auxiliary audio stream referenced in the above is mixed and played back.

図7においては、メインパスに3つのPlayItemがPlayItem_id=0,1,2と配置され、サブパス(Subpath_id=0)に2つのSubPlayItemが配置されている。そして、Subpath_id=0のSubPath(図19にて後述する)で呼び出すSubPlayItem(図21にて後述する)は、Auxiliary audio stream(SubClip_entry_id=0の英語のAuxiliary audio streamのクリップ及びSubClip_entry_id=1の日本語のAuxiliary audio streamのクリップ)のSubpathの再生区間を指定するための、SubPlayItem_IN_timeと、SubPlayItem_out_timeを含む。   In FIG. 7, three PlayItems are arranged in the main path as PlayItem_id = 0, 1, 2, and two SubPlayItems are arranged in the subpath (Subpath_id = 0). SubPlayItem (described later in FIG. 21) called by SubPath with Subpath_id = 0 (described later in FIG. 19) is an Auxiliary audio stream (English Auxiliary audio stream clip with SubClip_entry_id = 0 and SubClip_entry_id = 1 Japanese) SubPlayItem_IN_time and SubPlayItem_out_time for specifying the subpath playback section of (Auxiliary audio stream clip).

図7と図6とを比較するに、図7においては、SubPlayItemによって、SubClip_entry_id=0,1のAuxiliary audio stream(英語または日本語のオーディオストリーム)を参照することができる。すなわち、SubPlayItemを用いて、複数のオーディオストリームファイルを参照する構造を有し、このSubPlayItemを再生する場合には、複数のオーディオストリームファイルから1つのオーディオストリームファイルが選ばれて再生される。図7の例の場合、英語のオーディオストリームファイルと日本語のオーディオストリームファイルのうち、1つのオーディオストリームファイルが選ばれて再生される。具体的には、subClip_entry_id=0,1の中から(ユーザの指令に基づいて)1つが選択され、そのIDが参照するAuxiliary audio streamが再生される。また、これに加えて、さらにメインパスにより参照されるオーディオストリームとのミキシングによる再生が選択された場合(再生するオーディオストリームとして2つのオーディオストリームが選択された場合)、例えば、メインパスで参照されるオーディオストリームファイルと、サブパスのオーディオパスで参照されるオーディオストリームファイルとが、ミキシングされて再生される。   7 is compared with FIG. 6, in FIG. 7, an auxiliary audio stream (English or Japanese audio stream) of SubClip_entry_id = 0, 1 can be referred to by SubPlayItem. That is, it has a structure that refers to a plurality of audio stream files using SubPlayItem, and when reproducing this SubPlayItem, one audio stream file is selected from the plurality of audio stream files and reproduced. In the case of the example in FIG. 7, one audio stream file is selected and reproduced from the English audio stream file and the Japanese audio stream file. Specifically, one of subClip_entry_id = 0 and 1 is selected (based on a user instruction), and an auxiliary audio stream referred to by the ID is reproduced. In addition to this, when playback by mixing with an audio stream referred to by the main path is selected (when two audio streams are selected as audio streams to be played back), for example, the playback is referred to by the main path. The audio stream file to be referred to and the audio stream file referred to by the sub-path audio path are mixed and reproduced.

図8は、再生装置20において再生可能なデータファイルのファイルシステムの例を示す図である。図8には、一例として、再生装置20において再生可能なデータファイルが光ディスクなどの記録媒体21によって供給されている場合を示しており、このファイルシステムはディレクトリ構造を有している。   FIG. 8 is a diagram illustrating an example of a file system of a data file that can be played back by the playback device 20. FIG. 8 shows, as an example, a case where a data file that can be played back by the playback device 20 is supplied by a recording medium 21 such as an optical disk, and this file system has a directory structure.

このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディレクトリが用意され、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これらのファイルをそれぞれIndexファイル、NavigationObjectファイルと称する。また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。   In this file system, a directory with the name “BDMV” is prepared under “root”, and a file with the name “Index.bdmv” and a file “NavigationObject.bdmv” Contains a file with a name. Hereinafter, these files will be referred to as an Index file and a NavigationObject file, respectively, as appropriate. As appropriate, each file is referred to by adding “file” to “file name”, or each directory is referred to by adding “directory” to “directory name”.

Indexファイルは、上述したインデックステーブルが記載されたファイルであり、再生装置20において再生可能なデータファイルを再生するメニューに関する情報を含む。再生装置20は、例えば、再生装置20において再生可能なデータファイルに含まれるコンテンツを全て再生する、特定のチャプタのみ再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再生メニュー画面をIndexファイルに基づいて、表示装置に表示させる。Indexファイルのインデックステーブルには各項目が選択されたときに実行するNavigationObjectを設定することができ、ユーザにより再生メニュー画面から1つの項目が選択された場合、再生装置20はIndexファイルのインデックステーブルに設定されているNavigationObjectのコマンドを実行する。   The Index file is a file in which the above-described index table is described, and includes information related to a menu for reproducing a data file that can be reproduced by the reproducing apparatus 20. The playback device 20 includes, for example, a playback menu that includes items such as all content included in a data file that can be played back by the playback device 20, playback of only a specific chapter, repeated playback, and display of an initial menu. The screen is displayed on the display device based on the Index file. The navigation object to be executed when each item is selected can be set in the index table of the index file. When one item is selected from the playback menu screen by the user, the playback device 20 stores the navigation object in the index file index table. Execute the set NavigationObject command.

NavigationObjectファイルは、NavigationObjectを含むファイルである。NavigationObjectは、再生装置20において再生可能なデータファイルに含まれているPlayListの再生を制御するコマンドを含み、例えば、再生装置20は、このファイルシステムに含まれているNavigationObjectの中から1つを選択して、実行することにより、コンテンツを再生させることができる。   The NavigationObject file is a file containing NavigationObject. The NavigationObject includes a command for controlling playback of a PlayList included in a data file that can be played back by the playback device 20. For example, the playback device 20 selects one of the NavigationObjects included in the file system. Then, the content can be reproduced by executing.

BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ(BACKUPディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、「CLIPINF」の名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定されたディレクトリ(AUXDATAディレクトリ)が設けられている。   The BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), and a directory with the name “CLIPINF” (CLIPINF directory). , A directory (STREAM directory) in which the name “STREAM” is set, and a directory (AUXDATA directory) in which the name “AUXDATA” is set.

BACKUPディレクトリには、再生装置20において再生可能なファイルやデータをバックアップするためのファイルやデータが記録される。   In the BACKUP directory, files and data for backing up files and data that can be played back by the playback device 20 are recorded.

PLAYLISTディレクトリには、PlayListファイルが格納される。各PlayListファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.mpls」を付加した名称が命名される。   A PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name consisting of a 5-digit number.

CLIPINFディレクトリには、Clip Informationファイルが格納される。各Clip Informationファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.clpi」を付加した名称が命名される。   A Clip Information file is stored in the CLIPINF directory. Each Clip Information file is named by adding the extension “.clpi” to a file name consisting of five digits as shown in the figure.

STREAMディレクトリには、Clip AVストリームファイルやサブストリームファイルが格納される。各ストリームファイルには、図内に示されるように5桁の数字からなるファイル名に拡張子「.m2ts」を付加した名称が命名される。   In the STREAM directory, a Clip AV stream file and a substream file are stored. Each stream file is given a name obtained by adding an extension “.m2ts” to a file name consisting of five digits as shown in the figure.

AUXDATAディレクトリには、Clip AVストリームファイルやサブストリームファイルに含まれずに、Clip AVストリームファイルやサブストリームファイルから参照されるデータや、Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデータなどのファイルが格納される。図8の例においては、AUXDATAディレクトリには、「11111.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名前が設定された効果音などのサウンドデータが格納されている。   The AUXDATA directory is not included in the Clip AV stream file or substream file, but is referred to from the Clip AV stream file or substream file, or data used independently of the Clip AV stream file or substream file. And other files are stored. In the example of FIG. 8, the AUXDATA directory stores sound data such as subtitle font files with the name “11111.otf” and sound effects with the name “sound.bdmv”. ing.

また、再生装置20において再生可能なデータファイルが光ディスクによって配布されている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルオーサに割り当てられた識別子であるauthor_id、および、author_idに示されるタイトルオーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子であるdisc_idが、ユーザなどにより書き換えることができないセキュアな電子データとして、または、物理的にピットによって記録されている。   Further, when a data file that can be played back by the playback device 20 is distributed by an optical disk, for example, the content author such as a production company or a movie distribution company, or the title author that is the supply source of the recording medium is displayed. Author_id, which is an identifier assigned to each title author for identification, and disc_id, which is an identifier assigned to identify the type of optical disc produced by the title author indicated by author_id, are rewritten by the user or the like. It cannot be recorded as secure electronic data or physically by pits.

また、再生装置20において再生可能なデータファイルが光ディスク以外のリムーバブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされている場合も、author_id、および、author_idに相当するidが割り当てられてそれぞれ区別可能なようになされ、図8に示す場合と同様のディレクトリ構造を有していると好適である。また、再生装置20において再生可能なデータファイルには、author_id、および、author_idに相当するidが割り当てられていないとしても、図8を用いて説明した場合と同様に、「Index.bdmv」の名前が設定されたファイル、「NavigationObject.bdmv」の名前が設定されたファイルが含まれており、「BACKUP」の名前が設定されたファイル群、「PLAYLIST」の名前が設定されたファイル群、「CLIPINF」の名前が設定されたファイル群、「STREAM」の名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル群のうち、適宜必要なファイル群が含まれている。   In addition, even when a data file that can be played back by the playback device 20 is recorded on a removable recording medium other than the optical disk or downloaded via a network, an id corresponding to author_id and author_id is assigned. It is preferable to have a directory structure similar to that shown in FIG. Further, even if the data file that can be played back by the playback device 20 is not assigned author_id and id corresponding to author_id, the name of “Index.bdmv” is the same as in the case described with reference to FIG. , Files with the name “NavigationObject.bdmv”, files with the name “BACKUP”, files with the name “PLAYLIST”, “CLIPINF Among the file group set with the name "STREAM", the file group set with the name "STREAM", and the file group set with the name "AUXDATA", necessary file groups are included as appropriate.

ところで、再生装置20は、音声データを非圧縮データとして出力する場合と、圧縮符号化されたデータとして出力する場合とがある。また、再生装置20は、音声データを必要に応じて合成することができる。再生装置20は、例えば、主に再生出力される音声データに対して、効果音を合成する機能を有することができ、また、効果音のみならず、第2の音声(副音声など)を主に再生出力される音声データに合成する機能を有することができる。換言すれば、再生装置20が音声データの合成を行うか否かは、再生されるストリームに、再生装置20が有する機能において合成可能な音声データが含まれているか否かによって決まる。   By the way, the reproducing apparatus 20 outputs audio data as uncompressed data and outputs it as compressed and encoded data. Further, the playback device 20 can synthesize audio data as necessary. For example, the playback device 20 can have a function of synthesizing sound effects mainly on sound data to be reproduced and output. In addition, not only the sound effects but also the second sound (sub sound, etc.) is mainly used. It is possible to have a function of synthesizing the audio data reproduced and output. In other words, whether or not the playback device 20 synthesizes audio data depends on whether or not the stream to be played back includes audio data that can be synthesized by the function of the playback device 20.

以下、主に再生出力される音声データをオーディオストリーム#1と称し、例えば、ユーザの操作入力に対応して発生するクリック音や効果音など、上述したAUXDATAディレクトリにsound.bdmvとして記載されている音声データをサウンドデータと称するものとする。サウンドデータはオーディオストリーム#1に合成可能である。また、オーディオストリーム#1とは別のストリームであって、例えば、副音声など、オーディオストリーム#1に合成可能な音声データをオーディオストリーム#2と称するものとする。なお、オーディオストリーム#1とは別のストリームであって、オーディオストリーム#1に合成可能な音声データは、オーディオストリーム#2以外にも、複数存在してもよく、その場合、例えば、オーディオストリーム#3、オーディオストリーム#4・・・などとして、それぞれ、区別可能なようにすればよい。   Hereinafter, the audio data mainly played back and output is referred to as audio stream # 1, and is described as sound.bdmv in the AUXDATA directory described above, for example, a click sound or a sound effect generated in response to a user operation input. The audio data is referred to as sound data. Sound data can be synthesized with the audio stream # 1. Also, audio data that is different from the audio stream # 1 and can be synthesized with the audio stream # 1, such as sub audio, is referred to as an audio stream # 2. In addition to the audio stream # 2, there may be a plurality of audio data that is different from the audio stream # 1 and can be combined with the audio stream # 1, and in this case, for example, the audio stream # 1 3, audio stream # 4, etc., can be distinguished from each other.

オーディオストリーム#1が圧縮符号化データとして出力される場合であっても、オーディオストリーム#2やサウンドデータとの音声合成が行われる場合、オーディオストリーム#1は、一旦復号され、合成処理が行われた後、再エンコードされて出力される。これに対して、オーディオストリーム#1が圧縮符号化データとして出力され、オーディオストリーム#2やサウンドデータとの音声合成が行われない場合、オーディオストリーム#1は、デコードされずにそのまま出力されるほうが、音質が劣化せず、好適である。   Even when audio stream # 1 is output as compression-encoded data, when audio synthesis with audio stream # 2 or sound data is performed, audio stream # 1 is once decoded and synthesized. After that, it is re-encoded and output. On the other hand, when the audio stream # 1 is output as compression-encoded data and the voice synthesis with the audio stream # 2 or the sound data is not performed, the audio stream # 1 should be output as it is without being decoded. Sound quality is not deteriorated, which is preferable.

したがって、再生装置20においては、オーディオストリーム#1に対して復号処理を施すか否かを決定するために、出力の形態と、このデータファイルに含まれている音声データの種別(オーディオストリーム#1に合成される他の音声データが含まれているか否か)を認識する必要がある。このため、再生装置20によって再生可能なデータファイルには、サウンドデータが含まれているか否かを示すフラグや、オーディオストリーム#2が含まれているか否かを示すフラグが所定の位置に記載されている。   Therefore, in the playback apparatus 20, in order to determine whether or not to perform the decoding process on the audio stream # 1, the output form and the type of audio data (audio stream # 1) included in the data file are determined. It is necessary to recognize whether or not other audio data to be synthesized is included. For this reason, the data file that can be played back by the playback device 20 includes a flag indicating whether or not sound data is included and a flag indicating whether or not the audio stream # 2 is included in a predetermined position. ing.

なお、オーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載される位置としては、例えば、Indexファイル、プレイリスト(PlayList)ファイル、プレイアイテム(PlayItem)などがある。これらのフラグがIndexファイルに記載されている場合、図8を用いて説明したデータ構造に含まれる全てのデータの再生において、オーディオストリーム#1に合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定される。同様に、これらのフラグがプレイリストに記載されている場合、対応するプレイリストを基に再生されるデータに含まれるオーディオストリーム#1に対して合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定され、これらのフラグがプレイアイテムに記載されている場合、対応するプレイアイテムに対応するクリップにオーディオストリーム#1に対して合成される他の音声データが含まれていると扱われるか、含まれていないと扱われるかが規定される。   Note that the position where the flag indicating whether or not other audio data to be synthesized is included in the audio stream # 1 is described as an index file, a playlist (PlayList) file, a play item (PlayItem), or the like. is there. When these flags are described in the Index file, when all data included in the data structure described with reference to FIG. 8 is reproduced, other audio data to be synthesized with the audio stream # 1 is included. Whether it is treated or not included is specified. Similarly, when these flags are described in the playlist, it includes that other audio data synthesized with the audio stream # 1 included in the data reproduced based on the corresponding playlist is included. If these flags are described in the play item, other clips that are combined with the audio stream # 1 are combined with the clip corresponding to the corresponding play item. It is specified whether audio data is included or not.

Indexファイル(Index.bdmv)のシンタクスを図9に示す。   FIG. 9 shows the syntax of the Index file (Index.bdmv).

Type_indicatorは、ISO646に基づいて符号化された"INDX"の値が記述されるフィールドである。   Type_indicator is a field in which the value of “INDX” encoded based on ISO646 is described.

version_numberは、Index.bdmvのバージョンナンバーを示す4文字の文字列であり、ISO646に基づいて符号化された"0089"の値が記述される。   The version_number is a 4-character string indicating the version number of Index.bdmv, and a value “0089” encoded based on ISO646 is described.

Indexes_start_addressは、Indexes()ブロックのスタートアドレスが記載されるフィールドである。   Indexes_start_address is a field in which the start address of the Indexes () block is described.

AppInfoBDMV()には、このIndexファイルを含むデータファイルの供給元を示す、個別の識別子などが記載されている。   In AppInfoBDMV (), an individual identifier indicating the supply source of the data file including this Index file is described.

Indexes()には、例えば、メニューを読み出したり、タイトルを検索したり、所定のタイトルにジャンプしたり、または、このIndexファイルを含むデータファイルが記録されている光ディスクなどの記録媒体21が再生装置20に装着された場合に自動的に起動する処理を実行するアプリケーション(NavigationObject)とのリンクが記載されている。Indexes()のシンタクスについては、図10乃至図12を用いて後述する。   Indexes () includes, for example, a recording device 21 such as an optical disk on which a menu is read, a title is searched, a jump is made to a predetermined title, or a data file including the Index file is recorded. A link with an application (NavigationObject) that executes a process that automatically starts when it is attached to the device 20 is described. The syntax of Indexes () will be described later with reference to FIGS. 10 to 12.

Padding_wordは、Index.bdmvのシンタクスに基づいて挿入されるものであり、0または正の整数で表される。   Padding_word is inserted based on the syntax of Index.bdmv, and is represented by 0 or a positive integer.

Indexes()のシンタクスの第1の例を、図10に示す。図10は、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていない場合のシンタクスである。   A first example of the syntax of Indexes () is shown in FIG. FIG. 10 shows the syntax when the flag referred to by Indexes () does not contain a flag indicating whether other audio data to be combined with the audio stream # 1 is included in the data referred to by Indexes ().

lengthは、Indexes()に何バイトの情報が記載されているかを表すフィールドである。   The length is a field indicating how many bytes of information are described in Indexes ().

FirstPlaybackは、このファイルシステムのデータが再生される場合に最初に実行されるNavigationObjectに関する情報が含まれているデータブロックである。具体的には、このファイルシステムのデータが記録された光ディスクなどの記録媒体21が再生装置20に装着されたときに最初に自動的に実行されるNavigationObjectに関する情報が含まれているデータブロックである。   FirstPlayback is a data block that includes information related to a NavigationObject that is executed first when data of this file system is reproduced. Specifically, it is a data block that includes information related to a NavigationObject that is automatically executed first when a recording medium 21 such as an optical disk on which data of this file system is recorded is loaded in the playback device 20. .

FirstPlayback_mobj_id_refは、最初に実行されるNavigationObjectのmobj_idの値を指定するためのフィールドである。mobj_idは、NavigationObjectがそれぞれ固有に与えられているIDである。また、再生開始時に自動的に実行されるNavigationObjectが設定されない場合、すなわち、再生開始時にはアプリケーションはいずれも実行されず、ユーザによる指令を受けて、いずれかのアプリケーションが実行されるようになされている場合、このフィールドには、"0Xffff"が記載される。   FirstPlayback_mobj_id_ref is a field for designating the value of mobj_id of the NavigationObject that is executed first. mobj_id is an ID to which NavigationObject is uniquely given. Also, if the NavigationObject that is automatically executed at the start of playback is not set, that is, no application is executed at the start of playback, and any application is executed in response to an instruction from the user. In this case, “0Xffff” is described in this field.

TopMenu()は、ユーザがメニュー画面を表示させる場合などに呼び出されるTopMenuのNavigationObjectに関する情報が含まれているデータブロックである。   TopMenu () is a data block that includes information related to NavigationObject of TopMenu that is called when the user displays a menu screen.

TopMenu_mobj_id_refは、TopMenuのNavigationObjectのmobj_idの値を指定するためのフィールドである。TopMenuが設定されない場合、このフィールドには、"0xFFFF"が記載される。   TopMenu_mobj_id_ref is a field for designating the value of mobj_id of NavigationObject of TopMenu. When TopMenu is not set, “0xFFFF” is described in this field.

number_of_Titlesは、Indexes()に記載されているタイトルの数を表すフィールドである。   number_of_Titles is a field representing the number of titles described in Indexes ().

Title[title_id]()は、title_idによって固有に区別されているそれぞれのタイトルに関する情報が記載されるブロックである。title_idは0から割り当てられる。   Title [title_id] () is a block in which information about each title uniquely distinguished by title_id is described. title_id is assigned from 0.

Title_playback_type[title_id]は、そのtitle_idによって指定されるタイトルの再生タイプを示す情報であり、例えば、再生される動画と音声による一般的なコンテンツであるMovie Titleか、ユーザの操作入力によって再生される動画や音声が変更されるなどの双方向のやり取りが可能なコンテンツであるInteractive Titleなどのタイプが示される。例えば、そのタイトルがMovie Titleである場合、PlayListに基づいた再生処理が実行される。   Title_playback_type [title_id] is information indicating the playback type of the title specified by the title_id, for example, a movie title that is a general content with a video to be played and audio, or a video that is played by user operation input And Interactive Title, which is a content that can be interactively exchanged, such as a change in voice or sound. For example, when the title is Movie Title, playback processing based on PlayList is executed.

Title_access_type[title_id]は、そのtitle_idによって指定されるタイトルが、Title_Searchを用いて再生することが許可されているか否かを示す情報である。   Title_access_type [title_id] is information indicating whether or not the title specified by the title_id is permitted to be reproduced using Title_Search.

reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている29ビットのフィールドである。   reserved_for_future_use is a 29-bit field whose data description content is not set in preparation for future expansion.

Title_mobj_id_ref[title_id]は、そのtitle_idによって指定されるタイトルがエントリーされているNavigationObjectのmobj_idの値を指定するためのフィールドである。   Title_mobj_id_ref [title_id] is a field for specifying the value of mobj_id of the NavigationObject in which the title specified by the title_id is entered.

次に、Indexes()のシンタクスの第2の例を、図11に示す。図11の例においては、Indexes()により参照されるデータには、サウンドデータのみ合成される(オーディオストリーム#2は含まれていない)ようになされている場合のものであるから、Index()には、Indexes()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。   Next, FIG. 11 shows a second example of the syntax of Indexes (). In the example of FIG. 11, since the data referred to by Indexes () is synthesized with only sound data (audio stream # 2 is not included), Index (). Describes a flag indicating whether or not sound data to be synthesized with the audio stream # 1 is included in the data referred to by Indexes ().

図11に示されるIndexes()のシンタクスの第2の例においては、Indexes()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが29ビットから28ビットに変更されている以外は、図10を用いて説明したIndexes()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、Indexes()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータまたはオーディオストリーム#2のうちの少なくともいずれかが含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。   In the second example of the Indexes () syntax shown in FIG. 11, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referenced by Indexes (), is newly described. , Except that reserved_for_future_use is changed from 29 bits to 28 bits, it has the same configuration as that of the first example of the syntax of Indexes () described with reference to FIG. Note that this is_MixApp is defined as a flag indicating whether or not the data referred to by Indexes () includes at least one of sound data or audio stream # 2 that can be synthesized with audio stream # 1. May be. In this case, it is possible to quickly recognize whether or not the audio data is synthesized, that is, the necessity of the decoding process, only by confirming this one flag.

次に、Indexes()のシンタクスの第3の例を、図12に示す。図12の例においては、Index()には、Indexes()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとの2種類が記載されている。   Next, FIG. 12 shows a third example of the syntax of Indexes (). In the example of FIG. 12, Index () is combined with audio stream # 1 and a flag indicating whether or not the data referred to by Indexes () includes sound data combined with audio stream # 1. Two types of flags, which indicate whether or not audio stream # 2 is included.

図12に示されるIndexes()のシンタクスの第3の例においては、Indexes()により参照されるデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、Indexes()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが29ビットから27ビットに変更されている以外は、図10を用いて説明したIndexes()のシンタクスの第1の例と同様の構成を有している。   In the third example of the Indexes () syntax shown in FIG. 12, is_MixApp_1, which is a 1-bit flag indicating whether or not the audio stream # 2 is included in the data referenced by Indexes (), and Indexes Two types of flags, is_MixApp_2, which is a 1-bit flag indicating whether or not sound data is included in the data referenced by (), are newly described, and reserved_for_future_use is changed from 29 bits to 27 bits. Other than the above, the configuration is the same as that of the first example of the Indexes () syntax described with reference to FIG.

また、オーディオストリーム#1に合成すべきデータ(オーディオストリーム#2、またはサウンドデータのうちの少なくともいずれか)がIndexes()により参照されるデータに含まれているか否かを示すフラグではなく、合成処理が行われ得るか、行われないかを示すフラグを定義するものとしても良い。この場合には、定義されるフラグは、再生順を管理するIndex,PlayList等に基づいて再生を行うときに、合成データがそのPlayListに対して適用され得るか、または、適用されないかを示すフラグとなる。   Also, it is not a flag indicating whether or not the data to be synthesized with the audio stream # 1 (at least one of the audio stream # 2 and the sound data) is included in the data referred to by Indexes (), but is synthesized. A flag indicating whether processing can be performed or not can be defined. In this case, the defined flag is a flag indicating whether or not the composite data can be applied to the PlayList when playback is performed based on the Index, PlayList, etc. for managing the playback order. It becomes.

図13に、PlayListファイルのデータ構造を示す。PlayListファイルは、再生装置20に装着された記録媒体、または、再生装置20内部の記憶部(例えば、ハードディスクなどからなるローカルストレージ)において、PLAYLISTディレクトリに格納される、拡張子「.mpls」を有するデータファイルである。   FIG. 13 shows the data structure of the PlayList file. The PlayList file has an extension “.mpls” stored in the PLAYLIST directory in a recording medium attached to the playback device 20 or a storage unit inside the playback device 20 (for example, a local storage including a hard disk). It is a data file.

type_indicatorは、このファイルの種類を示す情報が記載されているものである。すなわち、このフィールドには、このファイルの種類が映像の再生を管理する再生管理情報であるPlayList(MoviePlayList)であることを示す情報が記載される。   type_indicator describes information indicating the type of the file. That is, in this field, information indicating that this file type is PlayList (MoviePlayList) that is playback management information for managing video playback.

version_numberは、このxxxx.mpls(MoviePlayList)のバージョンナンバーを示す4個のキャラクター文字を示すものである。   version_number indicates four character characters indicating the version number of xxxx.mpls (MoviePlayList).

PlayList_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayList()の先頭アドレスを示すものである。   PlayList_start_address indicates the start address of PlayList () with the relative number of bytes from the start byte of the PlayList file as a unit.

PlayListMark_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、PlayListMark()の先頭アドレスを示すものである。   PlayListMark_start_address indicates the head address of PlayListMark () with the relative number of bytes from the head byte of the PlayList file as a unit.

ExtensionData_start_addressは、PlayListファイルの先頭のバイトからの相対バイト数を単位として、ExtensionData()の先頭アドレスを示すものである。   ExtensionData_start_address indicates the start address of ExtensionData () in units of the relative number of bytes from the start byte of the PlayList file.

AppInfoPlayList()には、例えば、再生制限など、PlayListの再生コントロールに関するパラメータが格納されている。AppInfoPlayList()の詳細については、図14または図15を用いて後述する。   AppInfoPlayList () stores parameters related to playback control of the PlayList, such as playback restrictions. Details of AppInfoPlayList () will be described later with reference to FIG. 14 or FIG.

PlayList()には、PlayListのメインパスやサブパスなどに関するパラメータが格納されている。PlayList()の詳細は、図16乃至図18を用いて後述する。   PlayList () stores parameters related to the main path and sub path of the PlayList. Details of PlayList () will be described later with reference to FIGS. 16 to 18.

PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納されている。   PlayListMark () stores PlayList mark information, that is, information about a mark that is a jump destination (jump point) in a user operation or command that commands chapter jump or the like.

ExtensionData()には、プライベートデータが挿入できるようになっている。   Private data can be inserted into ExtensionData ().

次に、図14を参照して、AppInfoPlayList()の第1の例について説明する。図14のAppInfoPlayList()は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていない場合に適用することができる。   Next, a first example of AppInfoPlayList () will be described with reference to FIG. In the AppInfoPlayList () of FIG. 14, when Indexes () is the one described with reference to FIG. 10, that is, the data referred to by Indexes () includes other audio data synthesized with the audio stream # 1. It can be applied when the flag indicating whether or not it is described in Index ().

lengthは、length以下のシンタックスの長さ、すなわち、このlengthフィールドの直後からreserved_for_future_useの最後までのAppInfoPlayList()のバイト数を示すものである。このlengthの後には、8ビットのreserved_for_future_useが用意される。   The length indicates a syntax length equal to or less than length, that is, the number of bytes of AppInfoPlayList () from immediately after this length field to the end of reserved_for_future_use. After this length, 8-bit reserved_for_future_use is prepared.

Playlist_playback_typeは、連続再生、ランダムアクセス、シャッフルのいずれの再生を行うPlaylistであるかを示す情報を記載するフィールドである。   Playlist_playback_type is a field that describes information indicating whether the playlist is to be played back continuously, randomly accessed, or shuffled.

Playback_countは、ランダムアクセス、シャッフルを行うPlayListの場合、再生に用いるPlayItemの数を示す情報を記載するフィールドである。   Playback_count is a field that describes information indicating the number of PlayItems used for playback in the case of a PlayList that performs random access and shuffle.

そして、UO_mask_table()は、一時停止、チャプタサーチ、ジャンプ、早送り、早戻し(後方高速再生)等の特殊再生、または、表示等に関するユーザ操作の制限を決める情報である。   UO_mask_table () is information that determines restrictions on user operations related to special playback such as pause, chapter search, jump, fast forward, fast reverse (backward fast playback), or display.

そして、PlayList_random_access_flagは、他のPlayListからのジャンプ再生を制御するためのフラグ情報である。ここでは、PlayList_random_access_flag=1に設定されている場合、他のPlayListからのジャンプ再生を禁止するものとする。   PlayList_random_access_flag is flag information for controlling jump playback from another PlayList. Here, when PlayList_random_access_flag = 1 is set, jump playback from another PlayList is prohibited.

例えば、再生装置20においては、例えば、現在のPlayListにより参照されている再生位置から、他のPlayListにより参照される所定のPlayItemの先頭またはチャプタの位置への再生位置のジャンプを指令するユーザオペレーションなど、装置独自で拡張的なユーザオペレーションを用意することができる。PlayList_random_access_flagは、例えば、これらのユーザオペレーションにより、他のPlayListによって参照されるClip AV Streamのある再生位置から、このPlayListによって参照されるClip AV Streamへのジャンプ(再生位置の移動)が指令された場合、このユーザオペレーションを制限するか否かを設定するためのフラグ情報である。   For example, in the playback device 20, for example, a user operation that commands a jump of a playback position from a playback position referenced by the current PlayList to the start or chapter position of a predetermined PlayItem referenced by another PlayList, etc. It is possible to prepare an extended user operation unique to the device. PlayList_random_access_flag is, for example, when a jump from the playback position of a Clip AV Stream referenced by another PlayList to a Clip AV Stream referenced by this PlayList (movement of the playback position) is commanded by these user operations This is flag information for setting whether or not to restrict this user operation.

なお、ユーザオペレーションによりジャンプ(再生位置の移動)が指令されるのではなく、ナビゲーションコマンドによりジャンプ(再生位置の移動)が指令された場合、PlayList_random_access_flagは無視される(コマンドは実行され、コマンドの発生に伴って、再生位置が移動される)。   Note that when a jump (movement of the playback position) is commanded by a navigation command rather than a jump (movement of the playback position) commanded by a user operation, the PlayList_random_access_flag is ignored (the command is executed and the command is generated) Accordingly, the playback position is moved).

Is_MixAppは、このPlaylistファイルにより再生されるストリームが音声や効果音の合成を行うか否かのフラグである。すなわち、このis_MixAppは、このPlayListにより参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義されている。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。   Is_MixApp is a flag indicating whether or not the stream reproduced by the Playlist file performs synthesis of sound and sound effects. That is, this is_MixApp is defined as a flag indicating whether or not the data referred to by this PlayList includes sound data that can be synthesized with the audio stream # 1 and the audio stream # 2. In this case, it is possible to quickly recognize whether or not the audio data is synthesized, that is, the necessity of the decoding process, only by confirming this one flag.

また、Lossless_may_bypass_mixer_flagは、ロスレスの音声の再生に関するフラグである。この後には、13ビットのreserved_for_future_useが用意される。   Lossless_may_bypass_mixer_flag is a flag relating to the reproduction of lossless audio. After this, 13-bit reserved_for_future_use is prepared.

図10に示されるように、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndexes()に記載されていない場合においては、図14を用いて説明したように、AppInfoPlayList()にIs_MixAppを記載し、このPlaylistが音声や効果音の合成を行うか否かを示すようにしてもよいが、例えば、AppInfoPlayList()にIs_MixAppを記載するのではなく、PlayList()またはPlayItemにIs_MixAppを記載するものとしてもよい。   As shown in FIG. 10, in the case where a flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the data referred to by Indexes () is not described in Indexes () As described with reference to FIG. 14, Is_MixApp may be described in AppInfoPlayList () to indicate whether or not this Playlist synthesizes sound and sound effects. For example, Is_MixApp is included in AppInfoPlayList (). In this case, Is_MixApp may be described in PlayList () or PlayItem.

次に、図15を参照して、AppInfoPlayList()の第2の例について説明する。   Next, a second example of AppInfoPlayList () will be described with reference to FIG.

図15に示されるAppInfoPlayList()の第2の例は、このPlaylistが音声や効果音の合成を行うか否かのフラグであるIs_MixAppが記載されていないこと以外は、図14を用いて説明したAppInfoPlayList()の第1の例と同様の構成を有している。すなわち、図15のAppInfoPlayList()の第2の例は、Indexes()が、図10を用いて説明したものであるが、Is_MixAppなどのフラグが、後述するPlayList()またはPlayItemに記載されているとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されず、PlayList()またはPlayItemにIs_MixAppが記載される場合、または、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されている場合に適用される。   The second example of AppInfoPlayList () shown in FIG. 15 has been described with reference to FIG. 14 except that Is_MixApp, which is a flag indicating whether or not this playlist synthesizes sound and sound effects, is not described. It has the same configuration as the first example of AppInfoPlayList (). That is, in the second example of AppInfoPlayList () in FIG. 15, Indexes () is described with reference to FIG. 10, but flags such as Is_MixApp are described in PlayList () or PlayItem described later. That is, a flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the data referred to by Indexes () is not described in Index (), and Is_MixApp in PlayList () or PlayItem Is described, or when Indexes () is the one described with reference to FIG. 11 or FIG. 12, that is, other audio synthesized in the audio stream # 1 with the data referred to by Indexes () This is applied when a flag indicating whether or not data is included is described in Index ().

次に、図16は、PlayList()のシンタクスの第1の例を示す図である。図16は、オーディオストリーム#1に合成される他の音声データがこのプレイリストを参照することにより再生されるデータに含まれているか否かのフラグがPlayList()に記載されていない場合のシンタクスである。   Next, FIG. 16 is a diagram illustrating a first example of the syntax of PlayList (). FIG. 16 shows a syntax in the case where a flag indicating whether or not other audio data synthesized with the audio stream # 1 is included in data reproduced by referring to this playlist is not described in PlayList (). It is.

すなわち、図16の、PlayList()のシンタクスの第1の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されていないが、後述するPlayItemに記載されている場合、または、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されている場合に適用される。   That is, the first example of the syntax of PlayList () in FIG. 16 is that when Indexes () is the one described with reference to FIG. 10, that is, audio stream # 1 for data referenced by Indexes (). The flag indicating whether or not other audio data to be synthesized is included in Index () is not described in Index (), but if it is described in PlayItem described later, or Indexes () is shown in FIG. In other words, a flag indicating whether or not the data referred to by Indexes () includes other audio data to be synthesized with the audio stream # 1 is described in Index (). Applicable when

lengthは、このlengthフィールドの直後からPlayList()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す16ビットのフィールドである。例えば、図5の例の場合PlayItemの数は3個である。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。例えば、図5および図7に示されるように、PlayItem_id=0,1,2が割り振られる。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayList (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. number_of_PlayItems is a 16-bit field indicating the number of PlayItems in the PlayList. For example, in the example of FIG. 5, the number of PlayItems is three. The value of PlayItem_id is assigned from 0 in the order in which PlayItem () appears in the PlayList. For example, as shown in FIGS. 5 and 7, PlayItem_id = 0, 1, and 2 are allocated.

number_of_SubPathsは、PlayListの中にあるSubPathの数(エントリー数)を示す16ビットのフィールドである。例えば、図5の例の場合、Sub Pathの数は3個である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。例えば、図5に示されるように、Subpath_id=0,1,2が割り振られる。その後のfor文では、PlayItemの数だけPlayItemが参照され、Sub Pathの数だけ、Sub Pathが参照される。   number_of_SubPaths is a 16-bit field indicating the number of SubPaths (number of entries) in the PlayList. For example, in the example of FIG. 5, the number of Sub Paths is three. The value of SubPath_id is assigned from 0 in the order in which SubPath () appears in the PlayList. For example, as shown in FIG. 5, Subpath_id = 0, 1, and 2 are allocated. In the subsequent for statement, PlayItems are referenced by the number of PlayItems, and Sub Paths are referenced by the number of Sub Paths.

次に、図17は、PlayList()のシンタクスの第2の例を示す図である。図17の例においては、このプレイリストを参照することにより再生されるオーディオストリームは、オーディオストリーム#1のみであり(オーディオストリーム#2は含まれていない)、PlayList()には、PlayList()を参照して再生されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。   Next, FIG. 17 is a diagram illustrating a second example of the syntax of PlayList (). In the example of FIG. 17, the audio stream reproduced by referring to this playlist is only the audio stream # 1 (the audio stream # 2 is not included), and PlayList () includes PlayList (). The flag indicating whether or not sound data to be synthesized with the audio stream # 1 is included in the data reproduced with reference to FIG.

すなわち、図17の、PlayList()のシンタクスの第2の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、かつ、後述するPlayItemにもフラグが記載されていない場合に適用される。   That is, the second example of the syntax of PlayList () in FIG. 17 is that when Indexes () is the one described with reference to FIG. 10, that is, audio stream # 1 for data referenced by Indexes (). This is applied when a flag indicating whether or not other audio data to be synthesized is included is not described in Index () and a flag is not described in PlayItem described later.

図17に示されるPlayList()のシンタクスの第2の例においては、PlayList()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが16ビットから15ビットに変更されている以外は、図16を用いて説明したPlayList()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、Playlist()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。   In the second example of the syntax of PlayList () shown in FIG. 17, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referred to by PlayList (), is newly described. , Except that reserved_for_future_use is changed from 16 bits to 15 bits, it has the same configuration as the first example of the syntax of PlayList () described with reference to FIG. Note that this is_MixApp may be defined as a flag indicating whether or not the data referred to by Playlist () includes sound data that can be combined with the audio stream # 1 and the audio stream # 2. In this case, it is possible to quickly recognize whether or not the audio data is synthesized, that is, the necessity of the decoding process, only by confirming this one flag.

次に、PlayList()のシンタクスの第3の例を、図18に示す。図18の例においては、PlayList()には、PlayList()により参照されるデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとが記載されている。   Next, a third example of the syntax of PlayList () is shown in FIG. In the example of FIG. 18, PlayList () is combined with audio stream # 1 and a flag indicating whether or not sound data to be combined with audio stream # 1 is included in the data referenced by PlayList (). And a flag indicating whether or not audio stream # 2 is included.

すなわち、図18の、PlayList()のシンタクスの第3の例も、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、かつ、後述するPlayItemにもフラグが記載されていない場合に適用される。   That is, in the third example of the syntax of PlayList () in FIG. 18, when Indexes () is the same as that described with reference to FIG. 10, that is, the audio stream # 1 is the data referenced by Indexes (). This is applied when a flag indicating whether or not other audio data to be synthesized is included is not described in Index () and a flag is not described in PlayItem described later.

図18に示されるPlayList()のシンタクスの第3の例においては、PlayList()により参照されるデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、PlayList()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが16ビットから14ビットに変更されている以外は、図16を用いて説明したPlayList()のシンタクスの第1の例と同様の構成を有している。   In the third example of the PlayList () syntax shown in FIG. 18, is_MixApp_1 that is a 1-bit flag indicating whether or not the audio stream # 2 is included in the data referenced by the PlayList (), and the PlayList Two types of flags, is_MixApp_2, which is a 1-bit flag indicating whether or not sound data is included in the data referred to by (), are newly described, and reserved_for_future_use is changed from 16 bits to 14 bits. Except for the above, it has the same configuration as that of the first example of the syntax of PlayList () described with reference to FIG.

図19は、SubPath()のシンタクスの例を示す図である。   FIG. 19 is a diagram illustrating an example of the syntax of SubPath ().

lengthは、このlengthフィールドの直後からSub Path ()の最後までのバイト数を示す32ビットの符号なし整数である。すなわち、reserved_for_future_useからPlaylistの最後までのバイト数を示すフィールドである。このlengthの後には、16ビットのreserved_for_future_useが用意される。reserved_for_future_useは、将来の拡張に備えるためにデータの記述内容が未設定とされている。SubPath_typeは、SubPathのアプリケーション種類を示す8ビットのフィールドである。SubPath_typeは、例えば、Sub Pathがオーディオであるか、ビットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。このSubPath_typeについては、図20を参照して後述する。SubPath_typeの後には、15ビットのreserved_for_future_useが用意される。is_repeat_SubPathは、SubPathの再生方法を指定する1ビットのフィールドであり、メインパスの再生の間にSubPathの再生を繰り返し行うか、またはSubPathの再生を1回だけ行うかを示すものである。例えば、メインAVストリームとサブパスが指定するClipの再生タイミングが異なる場合(メインパスを静止画のスライドショーとし、サブパスのオーディオパスをメインパスのBGM(バックグラウンドミュージック)として使う場合など)に利用される。Is_repeat_SubPathの後には、8ビットのreserved_for_future_useが用意される。number_of_SubPlayItemsは、1つのSubPathの中にあるSubPlayItemの数(エントリー数)を示す8ビットのフィールドである。例えば、number_of_SubPlayItemsは、図5のSubPath_id=0のSubPlayItemは1個であり、SubPath_id=1のSubPlayItemは2個である。その後のfor文では、SubPlayItemの数だけ、SubPlayItemが参照される。   length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub Path (). That is, this field indicates the number of bytes from reserved_for_future_use to the end of the Playlist. After this length, 16-bit reserved_for_future_use is prepared. In reserved_for_future_use, the description content of the data is not set in preparation for future expansion. SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, when the type indicates whether the Sub Path is audio, bitmap subtitle, text subtitle, or the like. This SubPath_type will be described later with reference to FIG. 15-bit reserved_for_future_use is prepared after SubPath_type. is_repeat_SubPath is a 1-bit field that specifies the SubPath playback method, and indicates whether the SubPath playback is repeated during playback of the main path or the SubPath playback is performed only once. For example, it is used when the playback timing of the clip specified by the main AV stream and the sub path is different (for example, when the main path is used as a still image slide show and the sub path audio path is used as the main path BGM). . 8-bit reserved_for_future_use is prepared after Is_repeat_SubPath. number_of_SubPlayItems is an 8-bit field indicating the number of SubPlayItems (number of entries) in one SubPath. For example, number_of_SubPlayItems has one SubPlayItem with SubPath_id = 0 in FIG. 5 and two SubPlayItems with SubPath_id = 1. In subsequent for statements, SubPlayItems are referenced by the number of SubPlayItems.

図20は、SubPath_type(サブパスのタイプ)の例を説明する図である。すなわち、SubPathの種類は、例えば、図20に示されるように定義されている。   FIG. 20 is a diagram illustrating an example of SubPath_type (subpath type). That is, the type of SubPath is defined as shown in FIG. 20, for example.

図20において、SubPath_type=0,1は、reservedとされている。SubPath_type=2は、Audio presentation path of the Browsable slideshow(プラウザブルスライドショーのオーディオプレゼンテーションパス)とされている。例えば、SubPath_type=2は、プレイリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   In FIG. 20, SubPath_type = 0, 1 is reserved. SubPath_type = 2 is an Audio presentation path of the Browsable slideshow. For example, SubPath_type = 2 indicates that in the playlist, the audio presentation path referred to by the sub path and the main path referred to by the play item are asynchronous.

SubPath_type=3は、Interactive graphics presentation menu(インタラクティブグラフィックスのプレゼンテーションメニュー)とされている。例えば、SubPath_type=3は、プレイリストの中において、サブパスで参照されるインタラクティブグラフィックスのメニューと、プレイアイテムで参照されるメインパスとが非同期であることを示している。   SubPath_type = 3 is an interactive graphics presentation menu (interactive graphics presentation menu). For example, SubPath_type = 3 indicates that in the playlist, the interactive graphics menu referenced by the sub path and the main path referenced by the play item are asynchronous.

SubPath_type=4は、Text subtitle presentation path(テキスト字幕のプレゼンテーションパス)とされている。例えば、SubPath_type=4は、プレイリストの中において、サブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。   SubPath_type = 4 is a Text subtitle presentation path (a text subtitle presentation path). For example, SubPath_type = 4 indicates that in the playlist, the text subtitle presentation path referenced by the sub path and the main path referenced by the play item are synchronized.

SubPath_type=5は、2nd Audio Presentation path(2番目のオーディオプレゼンテーションパス)(2ndオーディオストリームを参照するためのパス)とされている。具体的には、SubPath_type=5は、プレイリストの中において、サブパスで参照される2番目のオーディオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)オーディオストリームは、映画に対する監督のコメント(音声)である。図7に示されるようなSubpath_idの場合、図19のSubPath_typeは、このSubPath_type=5となる。   SubPath_type = 5 is 2nd Audio Presentation path (second audio presentation path) (path for referring to the 2nd audio stream). Specifically, SubPath_type = 5 indicates that in the playlist, the second audio presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) audio stream referenced in this subpath is a director's comment (voice) on the movie. In the case of Subpath_id as shown in FIG. 7, SubPath_type in FIG. 19 is SubPath_type = 5.

SubPath_type=6は、2nd Video Presentation path(2番目のビデオプレゼンテーションパス)(2ndビデオストリームを参照するためのパス)とされている。具体的には、SubPath_type=6は、プレイリストの中において、サブパスで参照される2番目のビデオプレゼンテーションパスと、プレイアイテムで参照されるメインパスとが同期していることを示している。例えば、このサブパスで参照される(2番目の)ビデオストリームは、映画に対する監督のコメント(動画像)である。   SubPath_type = 6 is 2nd Video Presentation path (second video presentation path) (path for referring to the 2nd video stream). Specifically, SubPath_type = 6 indicates that in the playlist, the second video presentation path referred to by the sub path and the main path referred to by the play item are synchronized. For example, the (second) video stream referred to in this sub-path is a director's comment (moving image) for the movie.

SubPath_type=7乃至255は、reservedとされている。   SubPath_type = 7 to 255 is reserved.

図21は、SubPlayItem(i)のシンタクスを示す図である。   FIG. 21 is a diagram illustrating the syntax of SubPlayItem (i).

lengthは、このlengthフィールドの直後からSub playItem ()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playItem ().

図21においては、SubPlayItemが1つのClip を参照する場合と、複数のClip を参照する場合に分けられている。   In FIG. 21, SubPlayItem is divided into a case of referring to one Clip and a case of referring to a plurality of Clips.

最初に、SubPlayItemが1つのClipを参照する場合について説明する。   First, a case where SubPlayItem refers to one Clip will be described.

SubPlayItemには、Clipを指定するためのClip_Information_file_name[0]が含まれる。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、reserved_for_future_use、マルチクリップの登録の有無を示すフラグであるis_multi_Clip_entries、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。is_multi_Clip_entriesのフラグが立っている場合、SubPlayItemが複数のClipを参照する場合のシンタクスが参照される。また、Clipの中にあるSub Pathの再生区間を指定するためのSubPlayItem_IN_timeとSubPlayItem_OUT_timeを含む。さらに、main pathの時間軸上でSub Pathが再生開始する時刻を指定するためsync_PlayItem_id と sync_start_PTS_of_PlayItemを含む。このsync_PlayItem_id と sync_start_PTS_of_PlayItemは、上述したように、図6と図7の場合(メインAVストリームとサブパスにより示されるファイルの再生タイミングが同じである場合)に使用され、メインAVストリームとサブパスにより示されるファイルの再生タイミングが異なる場合(例えば、静止画により構成されるスライドショーのBGMのように、メインパスにより参照される静止画像とサブパスにより参照されるオーディオとが同期しない場合)には使用されない。また、SubPlayItem_IN_time、SubPlayItem_OUT_time、sync_PlayItem_id、sync_start_PTS_of_PlayItemは、SubPlayItemが参照するClipにおいて共通に使用される。   SubPlayItem includes Clip_Information_file_name [0] for designating a Clip. In addition, Clip_codec_identifier [0] that specifies the codec method of Clip, reserved_for_future_use, is_multi_Clip_entries that indicates the presence or absence of multi-clip registration, and ref_to_STC_id [0] that is information about STC discontinuity points (system time base discontinuity points) including. When the is_multi_Clip_entries flag is set, the syntax when SubPlayItem refers to a plurality of Clips is referenced. In addition, SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the playback section of the Sub Path in the Clip are included. Furthermore, sync_PlayItem_id and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts to be played on the time axis of the main path. As described above, the sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of FIGS. 6 and 7 (when the playback timing of the file indicated by the main AV stream and the sub path is the same), and the file indicated by the main AV stream and the sub path. Are not used (for example, when the still image referred to by the main path and the audio referred to by the sub path are not synchronized as in the BGM of a slide show composed of still images). Also, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common in the Clip referred to by SubPlayItem.

次に、SubPlayItemが複数のClipを参照する場合(if(is_multi_Clip_entries==1b)である場合、すなわちマルチクリップの登録が行われている場合)について説明する。具体的には、図7に示されるように、SubPlayItemが複数のClip を参照する場合を示す。   Next, a case where SubPlayItem refers to a plurality of Clips (if (is_multi_Clip_entries == 1b), that is, multi-clip registration is performed) will be described. Specifically, as shown in FIG. 7, a case where SubPlayItem refers to a plurality of Clips is shown.

num_of_Clip_entriesは、Clipの数を示しており、Clip_Information_file_name[SubClip_entry_id]の数が、Clip_Information_file_ name[0]を除く、Clipsを指定する。すなわち、Clip_Information_file_ name[0]を除く、Clip_Information_file_ name[1]、Clip_Information_file_ name[2]などのClipを指定する。また、SubPlayItemは、Clipのコーデック方式を指定するClip_codec_identifier[SubClip_entry_id]、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[SubClip_entry_id]、およびreserved_for_future_useを含む。   num_of_Clip_entries indicates the number of Clips, and Clip_Information_file_name [SubClip_entry_id] specifies Clips excluding Clip_Information_file_name [0]. That is, Clips such as Clip_Information_file_name [1] and Clip_Information_file_name [2] are specified excluding Clip_Information_file_name [0]. Further, SubPlayItem includes Clip_codec_identifier [SubClip_entry_id] that specifies the codec method of Clip, ref_to_STC_id [SubClip_entry_id] that is information related to STC discontinuity points (system time base discontinuity points), and reserved_for_future_use.

なお、複数のClipの間で、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは共通して使われる。図7の例の場合、SubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemは、SubClip_entry_id=0とSubClip_entry_id=1との間で共通して使用されるものであり、選択されたSubClip_entry_idに対するText based subtitleがこのSubPlayItem_IN_time, SubPlayItem_OUT_time、sync_PlayItem_id、およびsync_start_PTS_of_PlayItemに基づいて再生される。   Note that SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common among a plurality of clips. In the example of FIG. 7, SubPlayItem_IN_time, SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem are used in common between SubClip_entry_id = 0 and SubClip_entry_id = 1, and the Text based subtitle for the selected SubClip_entry_id is timeSubPlayItem_id Playback is based on SubPlayItem_OUT_time, sync_PlayItem_id, and sync_start_PTS_of_PlayItem.

ここで、SubClip_entry_idの値は、SubPlayItemの中にあるClip_Information_file_name[SubClip_entry_id]が現れる順番に1から割り振られる。また、Clip_Information_file_ name[0]のSubClip_entry_idは0である。   Here, the value of SubClip_entry_id is assigned from 1 in the order in which Clip_Information_file_name [SubClip_entry_id] in SubPlayItem appears. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.

図22は、PlayItem()のシンタクスの第1の例を示す図である。図22は、オーディオストリーム#1に合成される他の音声データが、このPlayItem()に対応するデータに含まれているか否かのフラグが記載されていない場合のシンタクスである。   FIG. 22 is a diagram illustrating a first example of the syntax of PlayItem (). FIG. 22 shows the syntax in the case where the flag indicating whether or not the other audio data synthesized with the audio stream # 1 is included in the data corresponding to this PlayItem () is not described.

すなわち、図22の、PlayItem()のシンタクスの第1の例は、Indexes()が、図11または図12を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されているか、AppInfoPlayList()が図14を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されているか、もしくは、PlayList()が図17または図18を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されている場合に適用される。   That is, the first example of the PlayItem () syntax in FIG. 22 is that when Indexes () is the one described with reference to FIG. 11 or FIG. When the flag indicating whether or not other audio data to be synthesized is included in the stream # 1 is described in Index (), or when AppInfoPlayList () has been described with reference to FIG. A flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the referenced data is described in AppInfoPlayList (), or PlayList () is used with reference to FIG. 17 or FIG. In other words, a flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the data referred to by the PlayList is described. It is applied to the case that.

lengthは、このlengthフィールドの直後からPlayItem()の最後までのバイト数を示す16ビットの符号なし整数である。Clip_Information_file_ name[0]は、PlayItemが参照するClipを指定するためのフィールドである。図6の例の場合、Clip_Information_file_ name[0]により、メインAVストリームが参照される。また、Clipのコーデック方式を指定するClip_codec_identifier[0]、将来の拡張に備えるためにデータの記述内容が未設定とされている11ビットのreserved_for_future_use、マルチアングル再生に対応しているか否かを示すフラグであるis_multi_angleを含み、更に、connection_conditionや、STC不連続点(システムタイムベースの不連続点)に関する情報であるref_to_STC_id[0]を含む。さらに、Clipの中のPlayItemの再生区間を指定するためのIN_time と OUT_timeを含む。図6の例の場合、IN_time と OUT_timeにより、メインClipAVストリームファイルの再生範囲が表される。また、UO_mask_table()、PlayItem_random_access_mode、still_modeを含む。is_multi_angleが複数ある場合については、本発明と直接的には関係ないのでその説明を省略する。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayItem (). Clip_Information_file_name [0] is a field for designating a Clip referred to by PlayItem. In the example of FIG. 6, the main AV stream is referred to by Clip_Information_file_name [0]. Also, Clip_codec_identifier [0] that specifies the codec format of Clip, 11-bit reserved_for_future_use in which the data description content is not set in preparation for future expansion, and a flag indicating whether or not multi-angle playback is supported Is_multi_angle, and further includes connection_condition and ref_to_STC_id [0] which is information on STC discontinuity (system time base discontinuity). Furthermore, IN_time and OUT_time for specifying the playback section of PlayItem in Clip are included. In the example of FIG. 6, the playback range of the main ClipAV stream file is represented by IN_time and OUT_time. Also, UO_mask_table (), PlayItem_random_access_mode, and still_mode are included. The case where there are a plurality of is_multi_angles is not directly related to the present invention, and the description thereof will be omitted.

PlayItem()の中のSTN_table()は、対象のPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、そのPlayItemが参照するClipとこれらの1つ以上のSubPathが参照するClipsの中から選ぶことができる仕組みを提供するものである。また、STN_table()は、2つのオーディオストリームのミキシング再生を選ぶことができる仕組みを提供するものである。   STN_table () in PlayItem () refers to the PlayItem's operations such as audio switching and subtitle switching when the target PlayItem and one or more SubPaths to be played back are prepared. It provides a mechanism that allows the user to select from Clips and Clips referenced by one or more of these SubPaths. STN_table () provides a mechanism that allows selection of mixing reproduction of two audio streams.

次に、図23は、PlayItem()のシンタクスの第2の例を示す図である。図23の例においては、このPlayItem()に対応するデータにオーディオストリーム#2は含まれておらず、PlayItem()には、PlayItem()に対応するデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグが記載されている。   Next, FIG. 23 is a diagram illustrating a second example of the syntax of PlayItem (). In the example of FIG. 23, the audio stream # 2 is not included in the data corresponding to this PlayItem (), and the sound synthesized with the audio stream # 1 is combined with the data corresponding to PlayItem () in PlayItem (). A flag indicating whether or not data is included is described.

すなわち、図23の、PlayItem()のシンタクスの第2の例は、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、AppInfoPlayList()が図15を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されておらず、PlayList()が図16を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されていない場合に適用される。   That is, the second example of the syntax of PlayItem () in FIG. 23 is that when Indexes () is the one described with reference to FIG. 10, that is, the audio stream # 1 for the data referenced by Indexes (). Is not described in Index () and AppInfoPlayList () is the one described with reference to FIG. 15, that is, it is referred to by PlayList. The flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in AppInfoPlayList () is not described in AppInfoPlayList (), and PlayList () is described with reference to FIG. That is, it is applied when a flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the data referred to by the PlayList.

図23に示されるPlayItem()のシンタクスの第2の例においては、PlayItem()により参照されるデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixAppが新たに記載され、reserved_for_future_useが11ビットから10ビットに変更されている以外は、図22を用いて説明したPlayItem()のシンタクスの第1の例と同様の構成を有している。なお、このis_MixAppを、PlayItem()により参照されるデータに、オーディオストリーム#1に合成され得るサウンドデータおよびオーディオストリーム#2が含まれているか否かを示すフラグとして定義しても良い。この場合には、この1つのフラグを確認することのみにより、オーディオデータの合成が行われるか否か、すなわち、デコード処理の必要性を、迅速に認識することが可能となる。   In the second example of the PlayItem () syntax shown in FIG. 23, is_MixApp, which is a 1-bit flag indicating whether or not sound data is included in the data referred to by PlayItem (), is newly described. , Except that reserved_for_future_use is changed from 11 bits to 10 bits, it has the same configuration as the first example of the syntax of PlayItem () described with reference to FIG. Note that this is_MixApp may be defined as a flag indicating whether or not the data referred to by PlayItem () includes sound data that can be synthesized with the audio stream # 1 and the audio stream # 2. In this case, it is possible to quickly recognize whether or not the audio data is synthesized, that is, the necessity of the decoding process, only by confirming this one flag.

次に、PlayItem()のシンタクスの第3の例を、図24に示す。図24の例においては、PlayItem()には、PlayItem()に対応するデータにオーディオストリーム#1に合成されるサウンドデータが含まれているか否かのフラグと、オーディオストリーム#1に合成されるオーディオストリーム#2が含まれているか否かのフラグとが記載されている。   Next, a third example of the PlayItem () syntax is shown in FIG. In the example of FIG. 24, PlayItem () is combined with audio stream # 1 with a flag indicating whether or not the data corresponding to PlayItem () includes sound data combined with audio stream # 1. A flag indicating whether or not the audio stream # 2 is included is described.

すなわち、図24の、PlayItem()のシンタクスの第3の例も、Indexes()が、図10を用いて説明したものであるとき、すなわち、Indexes()により参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがIndex()に記載されておらず、AppInfoPlayList()が図15を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグがAppInfoPlayList()に記載されておらず、PlayList()が図16を用いて説明したものであるとき、すなわち、PlayListにより参照されるデータにオーディオストリーム#1に合成される他の音声データが含まれているか否かのフラグが記載されていない場合に適用される。   That is, in the third example of the PlayItem () syntax in FIG. 24, when Indexes () is the same as that described with reference to FIG. 10, that is, the audio stream # 1 is the data referenced by Indexes (). Is not described in Index () and AppInfoPlayList () is the one described with reference to FIG. 15, that is, it is referred to by PlayList. The flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in AppInfoPlayList () is not described in AppInfoPlayList (), and PlayList () is described with reference to FIG. That is, it is applied when a flag indicating whether or not other audio data to be synthesized with the audio stream # 1 is included in the data referred to by the PlayList.

図24に示されるPlayItem()のシンタクスの第3の例においては、PlayItem()に対応するデータにオーディオストリーム#2が含まれているか否かを示す1ビットのフラグであるis_MixApp_1と、PlayItem()に対応するデータにサウンドデータが含まれているか否かを示す1ビットのフラグであるis_MixApp_2との2種類のフラグが新たに記載され、reserved_for_future_useが11ビットから9ビットに変更されている以外は、図22を用いて説明したPlayItem()のシンタクスの第1の例と同様の構成を有している。   In the third example of the PlayItem () syntax shown in FIG. 24, is_MixApp_1 which is a 1-bit flag indicating whether or not the audio stream # 2 is included in the data corresponding to PlayItem (), and PlayItem ( ), Two types of flags, is_MixApp_2, which is a 1-bit flag indicating whether or not sound data is included in the data, are described, and reserved_for_future_use is changed from 11 bits to 9 bits. FIG. 22 has the same configuration as that of the first example of the syntax of PlayItem () described with reference to FIG.

図25は、STN_table()のシンタクスを示す図である。STN_table()は、PlayItemの属性として設定されている。   FIG. 25 is a diagram illustrating the syntax of STN_table (). STN_table () is set as an attribute of PlayItem.

lengthは、このlengthフィールドの直後からSTN_table()の最後までのバイト数を示す16ビットの符号なし整数である。lengthの後には、16ビットのreserved_for_future_useが用意される。number_of_video_stream_entriesは、STN_table()の中でエントリーされる(登録される)video_stream_idが与えられるストリーム数を示す。video_stream_idは、ビデオストリームを識別するための情報であり、video_stream_numberは、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号である。   length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table (). 16-bit reserved_for_future_use is prepared after the length. number_of_video_stream_entries indicates the number of streams to which video_stream_id entered (registered) in STN_table () is given. video_stream_id is information for identifying a video stream, and video_stream_number is a video stream number that is used for video switching and is visible to the user.

number_of_audio_stream_entriesは、STN_table()の中でエントリーされるaudio_stream_idが与えられる1番目のオーディオストリームのストリーム数を示す。audio_stream_idは、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。number_of_audio_stream2_entriesは、STN_table()の中でエントリーされるaudio_stream_id2が与えられる2番目のオーディオストリームのストリーム数を示す。audio_stream_id2は、オーディオストリームを識別するための情報であり、audio_stream_numberは、音声切り替えに使われるユーザから見えるオーディオストリーム番号である。具体的には、STN_table()でエントリーされるnumber_of_audio_stream_entriesのオーディオストリームは、後述する図28の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリームであり、STN_table()でエントリーされるnumber_of_audio_stream2_entriesのオーディオストリームは、後述する図28の再生装置20の2ndオーディオデコーダ75−2でデコードされるオーディオストリームである。このように、図25のSTN_table()では、2つのオーディオデコーダのそれぞれにデコードさせるオーディオストリームをエントリーすることができる。   number_of_audio_stream_entries indicates the number of streams of the first audio stream to which audio_stream_id entered in STN_table () is given. The audio_stream_id is information for identifying the audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. number_of_audio_stream2_entries indicates the number of streams of the second audio stream to which audio_stream_id2 entered in STN_table () is given. The audio_stream_id2 is information for identifying an audio stream, and the audio_stream_number is an audio stream number that can be seen by the user used for audio switching. Specifically, the number_of_audio_stream_entries audio stream entered in STN_table () is an audio stream decoded by the 1st audio decoder 75-1 of the playback apparatus 20 shown in FIG. 28 described later, and number_of_audio_stream2_entries entered in STN_table (). The audio stream is an audio stream that is decoded by a 2nd audio decoder 75-2 of the playback device 20 in FIG. In this way, in STN_table () in FIG. 25, audio streams to be decoded by the two audio decoders can be entered.

なお、以下において、図28の再生装置20の1stオーディオデコーダ75−1でデコードされるnumber_of_audio_stream_entriesのオーディオストリームをオーディオストリーム#1と称し、図28の再生装置20の2ndオーディオデコーダ75−2でデコードされるnumber_of_audio_stream2_entriesのオーディオストリームをオーディオストリーム#2と称する。また、オーディオストリーム#1は、オーディオストリーム#2よりも優先されるオーディオストリームであるものとする。   In the following, the audio stream of number_of_audio_stream_entries decoded by the 1st audio decoder 75-1 of the playback device 20 in FIG. 28 is referred to as audio stream # 1, and is decoded by the 2nd audio decoder 75-2 of the playback device 20 in FIG. The audio stream of number_of_audio_stream2_entries is referred to as audio stream # 2. Also, it is assumed that the audio stream # 1 is an audio stream that has priority over the audio stream # 2.

number_of_PG_txtST_stream_entriesは、STN_table()の中でエントリーされるPG_txtST_stream_idが与えられるストリーム数を示す。この中では、DVDのサブピクチャのようなビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stream)とテキスト字幕ファイル(txtST)がエントリーされる。PG_txtST_stream_idは、字幕ストリームを識別するための情報であり、PG_txtST_stream_numberは、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)である。   number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_table () is given. In this, a stream (PG, Presentation Graphics stream) obtained by run-length encoding bitmap subtitles such as a DVD sub-picture and a text subtitle file (txtST) are entered. PG_txtST_stream_id is information for identifying a subtitle stream, and PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.

number_of_IG_stream_entriesは、STN_table()の中でエントリーされる IG_stream_idが与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームがエントリーされる。IG_stream_idは、インタラクティブグラフィックスストリームを識別するための情報であり、IG_stream_numberは、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号である。   number_of_IG_stream_entries indicates the number of streams provided with IG_stream_id entered in STN_table (). In this, an interactive graphics stream is entered. IG_stream_id is information for identifying an interactive graphics stream, and IG_stream_number is a graphics stream number that is visible to the user used for graphics switching.

ここで、stream_entry()のシンタクスについて図26を参照して説明する。   Here, the syntax of stream_entry () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_entry ()の最後までのバイト数を示す8ビットの符号なし整数である。typeは、上述したストリーム番号が与えられるストリームを一意に特定するために必要な情報の種類を示す8ビットのフィールドである。   length is an 8-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_entry (). type is an 8-bit field indicating the type of information necessary to uniquely specify the stream to which the above-described stream number is given.

type=1では、PlayItemによって参照されるClip(Main Clip)の中に多重化されている複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、16ビットのパケットID(PID)が指定される。ref_to_stream_PID_of_mainClipが、このPIDを示している。すなわち、type=1では、メインClipAVストリームファイルの中のPIDを指定するだけでストリームが決定される。   In type = 1, a 16-bit packet ID (PID) is used to identify one elementary stream from among a plurality of elementary streams multiplexed in a Clip (Main Clip) referenced by PlayItem. Is specified. ref_to_stream_PID_of_mainClip indicates this PID. That is, with type = 1, the stream is determined simply by specifying the PID in the main ClipAV stream file.

type=2では、SubPathが一度に複数個のClipsを参照し、それぞれのClipが複数のエレメンタリストリームを多重化する場合に、SubPathによって参照される1つのClip(SubClip)の複数のエレメンタリストリームの中から1つのエレメンタリストリームを特定するために、そのSubPathのSubPath_id、Clip id、およびパケットID(PID)が指定される。ref_to_SubPath_idがこのSubPath_idを示し、ref_to_SubClip_entry_idがこのClip idを示し、ref_to_stream_PID_of_SubClipがこのPIDを示している。SubPlayItemの中で複数のClipが参照され、さらにこのClipに複数のエレメンタリストリームが参照されている場合に用いられる。   In type = 2, when SubPath refers to multiple Clips at a time and each Clip multiplexes multiple elementary streams, multiple elementary streams of one Clip (SubClip) referenced by SubPath SubPath_id, Clip id, and packet ID (PID) of the SubPath are specified in order to identify one elementary stream from the list. ref_to_SubPath_id indicates this SubPath_id, ref_to_SubClip_entry_id indicates this Clip id, and ref_to_stream_PID_of_SubClip indicates this PID. This is used when a plurality of Clips are referred to in SubPlayItem and a plurality of elementary streams are referred to this Clip.

このように、type(type=1とtype=2の2つのtype)を使うことで、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から1つのエレメンタリストリームを特定することができる。なお、type=1はMain Pathが参照するClip(メインClip)を示しており、type=2はSub Pathが参照するClip(サブClip)を示している。   In this way, by using type (two types of type = 1 and type = 2), when PlayItem and one or more SubPaths to be played back are prepared, this PlayItem refers to One elementary stream can be identified from Clips referenced by Clip and one or more SubPaths. Note that type = 1 indicates a clip (main clip) referred to by the main path, and type = 2 indicates a clip (sub clip) referred to by the sub path.

図25のSTN_table()の説明に戻って、ビデオストリームID (video_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビデオエレメンタリストリームに、0からvideo_stream_idが与えられる。なお、ビデオストリームID(video_stream_id)の代わりに、ビデオストリーム番号(video_stream_number)を用いるようにしてもよい。この場合、video_stream_numberは、0ではなく1から与えられる。すなわち、video_stream_idの値に1を加算したものがvideo_stream_numberである。ビデオストリーム番号は、ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、1から定義される。   Returning to the description of STN_table () in FIG. 25, video_stream_id is given from 0 to one video elementary stream that is identified for each stream_entry () in turn in the for loop of the video stream ID (video_stream_id). Note that a video stream number (video_stream_number) may be used instead of the video stream ID (video_stream_id). In this case, video_stream_number is given from 1 instead of 0. That is, video_stream_number is obtained by adding 1 to the value of video_stream_id. The video stream number is defined from 1 since it is a video stream number that is used for video switching and is visible to the user.

同様に、オーディオストリームID (audio_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_idが与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID(audio_stream_id)の代わりに、オーディオストリーム番号(audio_stream_number)を用いるようにしてもよい。この場合、audio_stream_numberは、0ではなく1から与えられる。すなわち、audio_stream_idの値に1を加算したものがaudio_stream_numberである。オーディオストリーム番号は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号であるので、1から定義される。   Similarly, in the for loop of the audio stream ID (audio_stream_id), audio_stream_id is given from 0 to one audio elementary stream that is specified for each stream_entry () in order. As in the case of the video stream, an audio stream number (audio_stream_number) may be used instead of the audio stream ID (audio_stream_id). In this case, audio_stream_number is given from 1 instead of 0. That is, audio_stream_number is obtained by adding 1 to the value of audio_stream_id. The audio stream number is an audio stream number that can be seen by the user and is used for audio switching.

同様に、オーディオストリームID2 (audio_stream_id2)のforループの中で、順番にstream_entry()ごとに特定される1つのオーディオエレメンタリストリームに、0からaudio_stream_id2が与えられる。なお、ビデオストリームの場合と同様に、オーディオストリームID2(audio_stream_id2)の代わりに、オーディオストリーム番号2(audio_stream_number2)を用いるようにしてもよい。この場合、audio_stream_number2は、0ではなく1から与えられる。すなわち、audio_stream_id2の値に1を加算したものがaudio_stream_number2である。オーディオストリーム番号2は、音声切り替えに使われる、ユーザから見えるオーディオストリーム番号2であるので、1から定義される。   Similarly, audio_stream_id2 is given from 0 to one audio elementary stream specified for each stream_entry () in order in the for loop of the audio stream ID2 (audio_stream_id2). As in the case of the video stream, audio stream number 2 (audio_stream_number2) may be used instead of audio stream ID2 (audio_stream_id2). In this case, audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number2 is obtained by adding 1 to the value of audio_stream_id2. The audio stream number 2 is an audio stream number 2 that can be seen by the user and used for audio switching.

すなわち、図25のSTN_table()においては、number_of_audio_stream_entries(オーディオストリーム#1)のオーディオストリームと、number_of_audio_stream2_entries(オーディオストリーム#2)のオーディオストリームとが定義される。換言すれば、STN_table()を用いて、オーディオストリーム#1とオーディオストリーム#2とをエントリーすることができるので、ユーザは、同期して再生するオーディオストリームを2本選択することができる。   That is, in STN_table () of FIG. 25, an audio stream of number_of_audio_stream_entries (audio stream # 1) and an audio stream of number_of_audio_stream2_entries (audio stream # 2) are defined. In other words, since the audio stream # 1 and the audio stream # 2 can be entered using the STN_table (), the user can select two audio streams to be reproduced in synchronization.

同様に、字幕ストリームID (PG_txtST_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕に、0からPG_txtST_stream_idが与えられる。なお、ビデオストリームの場合と同様に、字幕ストリームID(PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_stream_number)を用いるようにしてもよい。この場合、PG_txtST_stream_numberは、0ではなく1から与えられる。すなわち、PG_txtST_stream_idの値に1を加算したものがPG_txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザから見える字幕ストリーム番号(テキストサブタイトルストリームの番号)であるので、1から定義される。   Similarly, PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text subtitle identified in order for each stream_entry () in the for loop of the subtitle stream ID (PG_txtST_stream_id). As in the case of the video stream, a subtitle stream number (PG_txtST_stream_number) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_stream_number is obtained by adding 1 to the value of PG_txtST_stream_id. The subtitle stream number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching, and is defined from 1.

同様に、グラフィックスストリームID (IG_stream_id)のforループの中で、順番にstream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームに、0からIG_stream_idが与えられる。なお、ビデオストリームの場合と同様に、グラフィックスストリームID(IG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_number)を用いるようにしてもよい。この場合、IG_stream_numberは、0ではなく1から与えられる。すなわち、IG_stream_idの値に1を加算したものがIG_stream_numberである。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザから見えるグラフィックスストリーム番号であるので、1から定義される。   Similarly, in the for loop of the graphics stream ID (IG_stream_id), IG_stream_id is assigned from 0 to one interactive graphics elementary stream that is identified for each stream_entry () in order. As in the case of the video stream, a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (IG_stream_id). In this case, IG_stream_number is given from 1 instead of 0. That is, IG_stream_number is obtained by adding 1 to the value of IG_stream_id. Since the graphics stream number is a graphics stream number that can be seen by the user used for switching graphics, it is defined from 1.

次に、図25のSTN_table()のstream_attribute()について説明する。   Next, stream_attribute () of STN_table () in FIG. 25 will be described.

reserved_for_future_useの後のfor文では、video streamの分だけvideo streamが参照され、このデータの提供者(例えば、記録媒体21の製造者など)が、オーディオストリームに対してMain PathおよびSub Pathを設定した分だけaudio streamが参照され、PG textST streamの分だけPG textST streamが参照され、IG streamの分だけIG streamが参照される。   In the for statement after reserved_for_future_use, the video stream is referred to as much as the video stream, and the provider of this data (for example, the manufacturer of the recording medium 21) sets the Main Path and Sub Path for the audio stream. The audio stream is referenced by the amount, the PG textST stream is referenced by the amount of the PG textST stream, and the IG stream is referenced by the amount of the IG stream.

ビデオストリームID (video_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビデオエレメンタリストリームのストリーム属性情報が記述されている。   The stream_attribute () in the for loop of the video stream ID (video_stream_id) gives stream attribute information of one video elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one video elementary stream specified for each stream_entry () is described.

同様に、オーディオストリームID(audio_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図26のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of the audio stream ID (audio_stream_id) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 26, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、オーディオストリームID2(audio_stream_id2)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのオーディオエレメンタリストリームのストリーム属性情報が記述されている。例えば、図26のstream_entry()のtype=1またはtype=2で特定されるオーディオエレメンタリストリームは1つであるので、stream_attribute()は、その1つのオーディオエレメンタリストリームのストリーム属性情報を与える。   Similarly, stream_attribute () in the for loop of audio stream ID2 (audio_stream_id2) gives stream attribute information of one audio elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one audio elementary stream specified for each stream_entry () is described. For example, since there is one audio elementary stream specified by type = 1 or type = 2 of stream_entry () in FIG. 26, stream_attribute () gives stream attribute information of that one audio elementary stream.

同様に、字幕ストリームID(PG_txtST_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームまたはテキスト字幕エレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのビットマップ字幕エレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the subtitle stream ID (PG_txtST_stream_id) gives stream attribute information of one bitmap subtitle elementary stream or text subtitle elementary stream specified for each stream_entry (). That is, in this stream_attribute (), stream attribute information of one bitmap subtitle elementary stream specified for each stream_entry () is described.

同様に、グラフィックスストリームID(IG_stream_id)のforループの中のstream_attribute()は、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報を与える。すなわち、このstream_attribute()には、stream_entry()ごとに特定される1つのインタラクティブグラフィックスエレメンタリストリームのストリーム属性情報が記述されている。   Similarly, stream_attribute () in the for loop of the graphics stream ID (IG_stream_id) gives stream attribute information of one interactive graphics elementary stream specified for each stream_entry (). That is, stream attribute information of one interactive graphics elementary stream specified for each stream_entry () is described in the stream_attribute ().

ここで、stream_attribute()のシンタクスについて図27を参照して説明する。   Here, the syntax of stream_attribute () will be described with reference to FIG.

lengthは、このlengthフィールドの直後からstream_attribute()の最後までのバイト数を示す16ビットの符号なし整数である。   The length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attribute ().

stream_coding_typeは、図28に示されるようにエレメンタリストリームの符号化タイプを示す。エレメンタリストリームの符号化タイプとしては、MPEG-2 video stream、HDMV LPCM audio、Dolby AC-3 audio、dts audio、Presentation graphics stream、Interactive graphics stream、およびText subtitle streamが記述される。   As shown in FIG. 28, stream_coding_type indicates the encoding type of the elementary stream. As encoding types of elementary streams, MPEG-2 video stream, HDMV LPCM audio, Dolby AC-3 audio, dts audio, Presentation graphics stream, Interactive graphics stream, and Text subtitle stream are described.

video_formatは、図29に示されるようにビデオエレメンタリストリームのビデオフォーマットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、480i、576i、480p、1080i、720p、および1080pが記述される。   video_format indicates the video format of the video elementary stream as shown in FIG. 480i, 576i, 480p, 1080i, 720p, and 1080p are described as the video format of the video elementary stream.

frame_rateは、図30に示されるように、ビデオエレメンタリストリームのフレームレートを示す。ビデオエレメンタリストリームのフレームレートとしては、24000/1001、24、25、30000/1001、50、および60000/1001が記述される。   As shown in FIG. 30, frame_rate indicates the frame rate of the video elementary stream. As frame rates of the video elementary stream, 24000/1001, 24, 25, 30000/1001, 50, and 60000/1001 are described.

aspect_ratioは、図31に示されるようにビデオエレメンタリストリームのアスペクト比情報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、4:3 display aspect ratio、および16:9 display aspect ratioが記述される。   The aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG. As aspect ratio information of the video elementary stream, 4: 3 display aspect ratio and 16: 9 display aspect ratio are described.

audio_presentation_typeは、図32に示されるようにオーディオエレメンタリストリームのプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼンテーションタイプ情報としては、single mono channel、dual mono channel、stereo(2-channel)、およびmulti-channelが記述される。   audio_presentation_type indicates presentation type information of an audio elementary stream as shown in FIG. As the presentation type information of the audio elementary stream, single mono channel, dual mono channel, stereo (2-channel), and multi-channel are described.

sampling_frequencyは、図33に示されるようにオーディオエレメンタリストリームのサンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数としては、48kHz、および96kHzが記述される。   Sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. As sampling frequencies of audio elementary streams, 48 kHz and 96 kHz are described.

audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   audio_language_code indicates the language code of the audio elementary stream (Japanese, Korean, Chinese, etc.).

PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.

IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   IG_language_code, which indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.

textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード(日本語、韓国語、中国語など)を示す。   textST_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the text subtitle elementary stream.

character_codeは、図34に示されるようにテキスト字幕エレメンタリストリームのキャラクタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、Unicode V1.1(ISO 10646-1)、Shift JIS(Japanese)、KSC 5601-1987 including KSC 5653 for Roman character(Korean)、GB 18030-2000(Chinese)、GB2312(Chinese)、およびBIG5(Chinese)が記述される。   Character_code indicates the character code of the text subtitle elementary stream as shown in FIG. The character code of the text subtitle elementary stream includes Unicode V1.1 (ISO 10646-1), Shift JIS (Japanese), KSC 5601-1987 including KSC 5653 for Roman character (Korean), GB 18030-2000 (Chinese), GB2312 (Chinese) and BIG5 (Chinese) are described.

以下に、図27のstream_attribute()のシンタクスについて、図27と、図28乃至図34を用いて具体的に説明する。   Hereinafter, the syntax of the stream_attribute () in FIG. 27 will be specifically described with reference to FIGS. 27 and 28 to 34.

エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がMPEG-2 video stream(図28)である場合、stream_attribute()には、そのエレメンタリストリームのビデオフォーマット(図29)、フレームレート(図30)、およびアスペクト比情報(図31)が含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is an MPEG-2 video stream (FIG. 28), the stream_attribute () includes the video format (FIG. 29) and the frame rate (FIG. 30) of the elementary stream. ), And aspect ratio information (FIG. 31).

エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がHDMV LPCM
audio、Dolby AC-3 audio、またはdts audio(図28)である場合、stream_attribute()には、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図32)、サンプリング周波数(図33)、および言語コードが含まれる。
The encoding type of the elementary stream (stream_coding_type in FIG. 27) is HDMV LPCM
In the case of audio, Dolby AC-3 audio, or dts audio (FIG. 28), stream_attribute () contains the presentation type information (FIG. 32), sampling frequency (FIG. 33), and language code of the audio elementary stream. included.

エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がPresentation graphics stream(図28)である場合、stream_attribute()には、そのビットマップ字幕エレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is a Presentation graphics stream (FIG. 28), stream_attribute () includes the language code of the bitmap subtitle elementary stream.

エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がInteractive graphics stream(図28)である場合、stream_attribute()には、そのインタラクティブグラフィックスエレメンタリストリームの言語コードが含まれる。   When the encoding type of the elementary stream (stream_coding_type in FIG. 27) is Interactive graphics stream (FIG. 28), stream_attribute () includes the language code of the interactive graphics elementary stream.

エレメンタリストリームの符号化タイプ(図27のstream_coding_type)がText subtitle stream(図28)である場合、stream_attribute()には、そのテキスト字幕エレメンタリストリームのキャラクタコード(図34)、言語コードが含まれる。   When the elementary stream encoding type (stream_coding_type in FIG. 27) is a Text subtitle stream (FIG. 28), stream_attribute () includes the character code (FIG. 34) and language code of the text subtitle elementary stream. .

なお、これらの属性情報はこれに限定されない。   Note that the attribute information is not limited to this.

このように、PlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から、stream_entry()によって特定された1つのエレメンタリストリームの属性情報をstream_attribute()によって知ることができる。   As described above, when a PlayItem and one or more SubPaths to be played back are prepared, a stream_entry () is used to select a Clip referred to by the PlayItem and a Clip referred to by one or more SubPaths. The attribute information of one identified elementary stream can be known by stream_attribute ().

再生装置は、この属性情報(stream_attribute())を調べることによって、そのエレメンタリストリームを自分自身が再生する機能を持っているか否かを調べることができる。また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期情報に対応したエレメンタリストリームの選択することができる。   By examining this attribute information (stream_attribute ()), the playback device can check whether or not it has the function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining the attribute information.

例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリームID (PG_txtST_stream_id)のforループの中から、ビットマップ字幕エレメンタリストリームだけを順次選択して、再生する。   For example, it is assumed that the playback apparatus has only a playback function for a bitmap subtitle elementary stream and does not have a playback function for a text subtitle elementary stream. When the user instructs the playback apparatus to switch the language, the playback apparatus sequentially selects and reproduces only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id).

また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。この再生装置に対して、ユーザが音声切り替えを指示した場合、再生装置は、オーディオストリームID (Audio stream id)のforループの中から、言語コードが日本語であるオーディオエレメンタリストリームだけを順次選択して、再生する。   Also, for example, assume that the initial information of the language setting of the playback device is Japanese. When the user instructs the playback apparatus to switch the audio, the playback apparatus sequentially selects only the audio elementary stream whose language code is Japanese from the for loop of the audio stream ID (Audio stream id). And play.

さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリームからなるAVストリーム(映画)を再生する場合、再生装置に対して、ユーザが音声の切り替えを指令し、オーディオストリーム#1(通常の映画で出力される音声)と、オーディオストリーム#2(監督や出演者によるコメント)とを、再生する音声として指定(選択)した場合、再生装置は、オーディオストリーム#1とオーディオストリーム#2とをミキシング(重畳)して、ビデオストリームとともに再生する。   Further, for example, when playing back an AV stream (movie) made up of a video stream and an audio stream that is referenced by the main path, the user instructs the playback device to switch the audio, and the audio stream # 1 (normal When the audio output in the movie) and the audio stream # 2 (comment by the director or performer) are designated (selected) as the audio to be played back, the playback device selects the audio stream # 1 and the audio stream # 2. Mix (superimpose) and play along with the video stream.

なお、オーディオストリーム#1とオーディオストリーム#2とは、図25および図26のSTN_table()を参照しても分かるように、両方ともメインパスにより参照されるClipに含まれるオーディオストリームとしてもよい。また、オーディオストリーム#1とオーディオストリーム#2のうちの、一方をメインパスにより参照されるClipに含まれるオーディオストリームとし、他方をサブパスにより参照されるClipに含まれるオーディオストリームとしてもよい。このように、メインパスにより参照されるメインAVストリームに重畳された複数のオーディオストリームを2つ選択して、ミキシングして再生することも可能である。   Note that the audio stream # 1 and the audio stream # 2 may both be audio streams included in the Clip referred to by the main path, as can be seen from the STN_table () in FIGS. Also, one of the audio stream # 1 and the audio stream # 2 may be an audio stream included in a clip referred to by the main path, and the other may be an audio stream included in the clip referenced by the sub path. As described above, it is possible to select two audio streams superimposed on the main AV stream referred to by the main path, mix them, and reproduce them.

このようにして、PlayItem()の中のSTN_table()は、このPlayItemとそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、ユーザによる音声切り替えや字幕切り替えという操作が、このPlayItemが参照するClipと1つ以上のSubPathが参照するClipの中から選ぶことができる仕組みを提供するようにしたので、メインAVストリームが記録されている、再生するAVストリームとは異なるストリームやデータファイルに対しても、インタラクティブな操作を行うことができる。   In this way, STN_table () in PlayItem () can be used for operations such as audio switching and subtitle switching by the user when this PlayItem and one or more SubPaths to be played back are prepared. Since a mechanism is provided that allows the user to select from the clip referenced by this PlayItem and the clip referenced by one or more SubPaths, a stream different from the AV stream to be reproduced, Interactive operations can also be performed on data files.

また、1つのPlayListの中にSubPathを複数使用し、それぞれのSubPathがそれぞれSubPlayItemを参照する構成としたので、拡張性の高い、また、自由度の高いAVストリームを実現することができる。すなわち、後で、SubPlayItemを追加できる構成とすることができる。例えば、Main Pathが参照するClipAVストリームファイルとこれに対応付けられるPlayListがあり、このPlayListが新たなSub Pathを追加したPlayListに書き換えられた場合、新たなPlayListに基づいて、Main Pathが参照するClipAVストリームファイルとともに、Main Pathが参照するClipAVストリームファイルとは異なるClipAVストリームファイルを参照して、再生を行うことができる。このように、拡張性を有する構成とすることができる。   Also, since a plurality of SubPaths are used in one PlayList and each SubPath refers to a SubPlayItem, an AV stream with high expandability and high flexibility can be realized. That is, it can be configured such that SubPlayItem can be added later. For example, when there is a ClipAV stream file referred to by the Main Path and a PlayList associated with the ClipAV stream file, and this PlayList is rewritten to a PlayList added with a new Sub Path, the ClipAV referenced by the Main Path is based on the new PlayList. Along with the stream file, reproduction can be performed by referring to a ClipAV stream file different from the ClipAV stream file referred to by the Main Path. Thus, it can be set as the structure which has an expandability.

さらに、PlayItem()の中のSTN_table()は、後述する図37の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とをミキシング(合成)して再生することができる仕組みを提供する。例えば、PlayItem()とそれに関連付けられて再生される1つ以上のSubPathが用意されている場合に、PlayItemが参照するClipのオーディオストリームをオーディオストリーム#1とし、SubPathが参照するClipのオーディオストリームをオーディオストリーム#2とし、これらををミキシングして再生することができる仕組みを提供するようにした。また、例えば、PlayItemが参照するClip(メインClip)に含まれる2つのオーディオストリームを、それぞれオーディオストリーム#1とオーディオストリーム#2とし、これらをミキシングして再生することができる仕組みを提供するようにした。これにより、メインAVストリームが記録されている、再生するメインのオーディオストリームとは異なるオーディオストリーム(例えば、監督のコメントのストリーム)の重畳再生を行うことができる。また、メインAVストリームに重畳されている2つのオーディオストリーム#1とオーディオストリーム#2とを重畳(ミキシング)して再生することができる。   Further, STN_table () in PlayItem () is an audio stream # 1 decoded by the 1st audio decoder 75-1 of the playback apparatus 20 shown in FIG. 37 to be described later, and an audio stream decoded by the 2nd audio decoder 75-2. Provide a mechanism that can be played by mixing (synthesizing) # 2. For example, when PlayItem () and one or more SubPaths to be played back are prepared, the clip audio stream referenced by PlayItem is defined as audio stream # 1, and the clip audio stream referenced by SubPath is defined as audio stream # 1. An audio stream # 2 is provided, and a mechanism capable of mixing and reproducing these is provided. Also, for example, two audio streams included in a clip (main clip) referred to by PlayItem are set as an audio stream # 1 and an audio stream # 2, respectively, and these can be mixed and played back. did. Accordingly, it is possible to perform superimposed reproduction of an audio stream (for example, a director's comment stream) that is different from the main audio stream to be reproduced, in which the main AV stream is recorded. Also, the two audio streams # 1 and # 2 superimposed on the main AV stream can be superimposed (mixed) and reproduced.

具体的な例を、図35を参照して説明する。図35は、ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を示す図である。   A specific example will be described with reference to FIG. FIG. 35 is a diagram illustrating an example of a stream number table representing a relationship between an audio signal provided to a user and a caption signal.

図35においては、音声番号をA_SN(Audio Stream Number)、A_SN2と称し、字幕番号をS_SN(SubPicture Stream Number)と称する。図35においては、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#1(audio_stream_idでエントリーされるオーディオストリーム)のそれぞれにA_SNが与えられ、PlayListのMain Pathを構成するPlayItemのSTN_table()でエントリーされるオーディオストリーム#2(audio_stream_id2でエントリーされるオーディオスト
リーム)のそれぞれにA_SN2が与えられる。
In FIG. 35, the audio numbers are referred to as A_SN (Audio Stream Number) and A_SN2, and the subtitle numbers are referred to as S_SN (SubPicture Stream Number). In FIG. 35, A_SN is given to each of the audio streams # 1 (audio streams entered with audio_stream_id) entered in STN_table () of PlayItems constituting the Main Path of the PlayList, and PlayItems constituting the Main Path of the PlayList. A_SN2 is given to each of the audio streams # 2 (audio streams entered with audio_stream_id2) entered in STN_table ().

具体的には、A_SN=1にオーディオ2が与えられ、A_SN=2にオーディオ1が与えられ、A_SN=3にオーディオ3が与えられている。また、A_SN2=1にオーディオ4が与えられ、A_SN2=2にオーディオ5が与えられている。ユーザは、A_SNが与えられているオーディオストリームの中から、再生するオーディオストリーム#1を選択し、選択したオーディオストリーム#1とミキシングするオーディオストリーム#2を、A_SN2が与えられているオーディオストリームの中から選択する。例えば、ユーザは、A_SN=2のオーディオ1と、A_SN2=2のオーディオ5とを再生するオーディオストリームとして選択する。   Specifically, audio 2 is given to A_SN = 1, audio 1 is given to A_SN = 2, and audio 3 is given to A_SN = 3. Audio 4 is given to A_SN2 = 1, and audio 5 is given to A_SN2 = 2. The user selects the audio stream # 1 to be reproduced from the audio streams to which A_SN is given, and selects the audio stream # 2 to be mixed with the selected audio stream # 1 in the audio stream to which A_SN2 is given. Select from. For example, the user selects audio 1 with A_SN = 2 and audio 5 with A_SN2 = 2 as playback audio streams.

具体的な例としては、A_SN=1のオーディオ2が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN=2のオーディオ1に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=3のオーディオ3に切り替えられる。また、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオは、A_SN=1のオーディオ2に切り替えられる。また、例えば、A_SN2=1のオーディオ4が選択されている場合に、ユーザが、オーディオの切り替えを指令した場合、オーディオはA_SN2=2のオーディオ5に切り替えられ、ユーザが、さらにオーディオの切り替えを指令した場合、オーディオはA_SN2=1のオーディオ4に切り替えられる。このように、オーディオストリーム#1を選択するためのA_SNと、オーディオストリーム#2を選択するためのA_SN2とは、音声の切り替えを独立させている。すなわち、ユーザは、A_SN=1乃至A_SN=3から1つオーディオストリームを選択し、A_SN2=1およびA_SN2=2から1つオーディオストリームを選択することになる。   As a specific example, when the audio 2 with A_SN = 1 is selected and the user commands the audio switching, the audio is switched to the audio 1 with A_SN = 2, and the user further selects the audio. When switching is instructed, the audio is switched to audio 3 with A_SN = 3. Further, when the user instructs to switch audio further, the audio is switched to audio 2 with A_SN = 1. Also, for example, when the audio 4 with A_SN2 = 1 is selected and the user commands to switch audio, the audio is switched to audio 5 with A_SN2 = 2, and the user further commands to switch audio. In this case, the audio is switched to the audio 4 with A_SN2 = 1. As described above, A_SN for selecting the audio stream # 1 and A_SN2 for selecting the audio stream # 2 are independent from each other. That is, the user selects one audio stream from A_SN = 1 to A_SN = 3, and selects one audio stream from A_SN2 = 1 and A_SN2 = 2.

なお、ここでは、A_SN、A_SN2の番号が小さい程、ユーザに提供される音声信号の優先度が高い。また、A_SNで与えられるストリームの方が、A_SN2で与えられるストリームより優先度が高い。すなわち、A_SN=1はデフォルトで再生されるオーディオストリームである。   Here, the lower the numbers of A_SN and A_SN2, the higher the priority of the audio signal provided to the user. Further, the stream given by A_SN has higher priority than the stream given by A_SN2. That is, A_SN = 1 is an audio stream reproduced by default.

具体的には、再生装置の言語設定の初期情報に基づいて再生される音声は、A_SN=1であるオーディオ2(図35)に対応しており、音声が切り替えられた後、再生される音声は、A_SN=2であるオーディオ1(図35)に対応している。   Specifically, the audio reproduced based on the initial information of the language setting of the reproduction apparatus corresponds to audio 2 (FIG. 35) with A_SN = 1, and the audio reproduced after the audio is switched. Corresponds to audio 1 (FIG. 35) with A_SN = 2.

このようなストリームナンバーテーブルを提供するために、PlayList()で参照されるPlayItem()の中のSTN table()(図25)において、最初に、オーディオストリーム#1にエントリーするためのaudio_stream_id=0(A_SN=1)でオーディオ2を与え、audio_stream_id=1(A_SN=2)でオーディオ1を与え、audio_stream_id=2(A_SN=3)でオーディオ3を与える。次に、STN table()(図25)において、オーディオストリーム#2にエントリーするためのaudio_stream_id2=0(A_SN2=1)でオーディオ4を与え、audio_stream_id2=1(A_SN2=2)でオーディオ5を与える。   In order to provide such a stream number table, in the STN table () (FIG. 25) in PlayItem () referenced by PlayList (), first, audio_stream_id = 0 for entry to audio stream # 1 Audio 2 is given by (A_SN = 1), audio 1 is given by audio_stream_id = 1 (A_SN = 2), and audio 3 is given by audio_stream_id = 2 (A_SN = 3). Next, in STN table () (FIG. 25), audio 4 is given by audio_stream_id2 = 0 (A_SN2 = 1) for entry into audio stream # 2, and audio 5 is given by audio_stream_id2 = 1 (A_SN2 = 2).

すなわち、再生する2つのオーディオストリーム(オーディオストリーム#1とオーディオストリーム#2)とを別々に定義することで、ユーザは、再生する2つのオーディオストリームを、定義されたものの中から任意に選択することができる。換言すれば、ユーザは、再生する2つのオーディオストリームの選択を自由に(オーディオストリーム#1とオーディオストリーム#2で定義されているものの中から自由に)行うことができるので、組み合わせの自由度の高い選択を行うことができる。例えば、ユーザは、オーディオ2+オーディオ4の組み合わせ(A_SN=1とA_SN2=1の組み合わせ)や、オーディオ2+オーディオ5の組み合わせ(A_SN=1とA_SN2=2の組み合わせ)を選択することができる。   That is, by defining two audio streams to be reproduced (audio stream # 1 and audio stream # 2) separately, the user can arbitrarily select two audio streams to be reproduced from the defined ones. Can do. In other words, the user can freely select two audio streams to be played (freely defined by the audio stream # 1 and the audio stream # 2). High selection can be made. For example, the user can select a combination of audio 2 + audio 4 (a combination of A_SN = 1 and A_SN2 = 1) or a combination of audio 2 + audio 5 (a combination of A_SN = 1 and A_SN2 = 2).

このように、PlayItem()の中のSTN table()(図25)のstream_entry()(図26)で、2本のオーディオストリームをエントリーすることが可能な構成としたので、2つのオーディオストリームをミキシングして再生することができる。すなわち、複数の種類からなるストリームから、同じ種類(この例の場合、オーディオストリーム)の2本のストリームをミキシング(重畳、または合成)して、同時に再生することができる。また、ユーザは、所望する2本の同じ種類のストリームのミキシング再生を指令することができる。   In this way, since the stream_entry () (FIG. 26) of the STN table () (FIG. 25) in PlayItem () can be entered with two audio streams, the two audio streams are Can be mixed and played back. That is, two streams of the same type (in this example, an audio stream) can be mixed (superimposed or combined) from a plurality of types of streams and simultaneously played back. In addition, the user can instruct mixing reproduction of two desired types of streams.

なお、以上の例では、図37の再生装置20の1stオーディオデコーダ75−1でデコードされるオーディオストリーム#1と、2ndオーディオデコーダ75−2でデコードされるオーディオストリーム#2とを、ユーザが別々に選択可能な構成としたが、オーディオストリーム#1とオーディオストリーム#2との組み合わせを定義し、ミキシング再生する場合には、この組み合わせの中からユーザに選択させる構成としてもよい。   In the above example, the audio stream # 1 decoded by the 1st audio decoder 75-1 and the audio stream # 2 decoded by the 2nd audio decoder 75-2 of the playback apparatus 20 in FIG. However, when a combination of the audio stream # 1 and the audio stream # 2 is defined and mixed reproduction is performed, the user may select a combination from the combinations.

次に、図36を参照して、AUXDATAディレクトリのsound.bdmvのシンタクスについて説明する。   Next, the syntax of sound.bdmv in the AUXDATA directory will be described with reference to FIG.

sound.bdmvは、インタラクティブグラフィックスを用いたストリームに対する1つ又は複数の効果音を含むファイルである。   sound.bdmv is a file containing one or more sound effects for a stream using interactive graphics.

SoundData_start_addressは、SoundData()の先頭アドレスを示す32ビットのフィールドであり、SoundIndex()は、実際の効果音のデータであるSoundData()の効果音の属性(例えば、チャネル数・周波数など)を示す情報である。   SoundData_start_address is a 32-bit field indicating the start address of SoundData (), and SoundIndex () indicates the sound effect attribute (for example, the number of channels, frequency, etc.) of SoundData () that is actual sound effect data. Information.

実際の効果音のデータであるSoundData()は、非圧縮のオーディオデータであり、例えば、サウンドストリームとは別に効果音が用意され、所定の位置で出力されるようになされているコンテンツや、ユーザの操作入力を基に再生するデータを変更することができるようになされているなど、ユーザの操作入力を受けることを前提としているコンテンツや、インタラクティブなコンテンツなどにおけるクリック音などとして用意されるデータである。換言すれば、コンテンツ、または、プレイリストまたはプレイアイテムで指定されるコンテンツの一部の仕様によっては、SoundData()を有していないものもある。SoundData()は、例えば、効果音の再生がコマンドによって指令された場合やユーザの操作入力を受けた場合、オーディオストリームに合成されて出力されるようになされている。   SoundData (), which is actual sound effect data, is uncompressed audio data.For example, a sound effect is prepared separately from a sound stream and output at a predetermined position or a user. This is data prepared as click sound for content that is supposed to receive user's operation input, such as being able to change the data to be played based on the operation input, or interactive content is there. In other words, some specifications of content or content specified by a playlist or play item may not have SoundData (). SoundData () is, for example, synthesized with an audio stream and output when a sound effect reproduction is instructed by a command or a user operation input is received.

次に、上述した構成を有するデータを再生出力する再生装置20の構成例と処理について説明する。   Next, a configuration example and processing of the playback device 20 that plays back and outputs data having the above-described configuration will be described.

図37は、本発明を適用した再生装置20の構成例を示すブロック図である。   FIG. 37 is a block diagram illustrating a configuration example of the playback device 20 to which the present invention has been applied.

この再生装置20は、上述したメインパスとサブパスを有するPlayListを再生することができる。再生装置20は、audio_stream_idで与えられるオーディオストリーム#1に対して、audio_stream_id2で与えられるオーディオストリーム#2やサウンドデータを合成して再生することができる。   The playback device 20 can play back the PlayList having the main path and the sub path described above. The playback device 20 can synthesize and play back the audio stream # 2 given by audio_stream_id2 and the sound data to the audio stream # 1 given by audio_stream_id.

再生装置20には、再生データ取得部31、スイッチ32、AVデコーダ部33、コントローラ34、オーディオエンコーダ41、ビデオエンコーダ42、D/A変換部43、D/A変換部44、スイッチ45、アナログオーディオ信号インターフェース111、デジタルオーディオ信号インターフェース112、非圧縮ビデオ信号インターフェース113、圧縮ビデオ信号インターフェース114、および、アナログビデオ信号インターフェース115が設けられている。   The reproduction apparatus 20 includes a reproduction data acquisition unit 31, a switch 32, an AV decoder unit 33, a controller 34, an audio encoder 41, a video encoder 42, a D / A conversion unit 43, a D / A conversion unit 44, a switch 45, analog audio. A signal interface 111, a digital audio signal interface 112, an uncompressed video signal interface 113, a compressed video signal interface 114, and an analog video signal interface 115 are provided.

図37の例の場合、最初に、コントローラ34が、例えば、装着された記録媒体21からデータを読み込むストレージドライブ、自分自身の内部の記録媒体からデータを読み込むデータドライブ、または、ネットワーク22を介してデータを取得するネットワークインターフェイスなどの再生データ取得部31を介して、Indexファイルを読み出し、発生されるコマンドに基づいて、PlayListファイルを読み出し、PlayListファイルの情報に基づいてPlayItemを読み出し、これに対応するClipを検出し、ClipInfoを基に、対応するAVストリームやAVデータなどを読み出す。ユーザは、上述したリモートコマンダ24などのユーザインターフェースを用いて、コントローラ34に対し、音声や字幕などの切り替えの指令を行うことができる。さらにまた、ユーザは、上述したリモートコマンダ24などのユーザインターフェースを用いて、コントローラ34に対し、後述する音声の合成処理に関する設定等の各種設定を指示することができる。また、コントローラ34には、再生装置20の言語設定の初期情報が図示せぬ記憶部などから供給される。   In the case of the example of FIG. 37, first, the controller 34, for example, via a storage drive that reads data from the attached recording medium 21, a data drive that reads data from its own internal recording medium, or the network 22 The index file is read out via the reproduction data acquisition unit 31 such as a network interface for acquiring data, the PlayList file is read out based on the generated command, and the PlayItem is read out based on the information of the PlayList file. Clip is detected, and the corresponding AV stream, AV data, etc. are read based on ClipInfo. The user can instruct the controller 34 to switch between audio and subtitles using the user interface such as the remote commander 24 described above. Furthermore, the user can instruct the controller 34 for various settings such as settings relating to speech synthesis processing, which will be described later, using a user interface such as the remote commander 24 described above. Further, the controller 34 is supplied with initial information of the language setting of the playback device 20 from a storage unit (not shown).

また、コントローラ34は、Indexファイル,PlayListファイル(AppInfoPlayList()、PlayList()、または、PlayItem)のうちのいずれかに記載される、オーディオストリーム#1に合成可能なサウンドデータの有無を示すフラグであるis_MixAppまたはis_MixApp_2の値、および、オーディオストリーム#1に合成可能なオーディオストリーム#2有無を示すフラグであるis_MixApp_1をスイッチ45の制御に適宜用いる。   Further, the controller 34 is a flag indicating the presence / absence of sound data that can be synthesized with the audio stream # 1 described in any one of the Index file and the PlayList file (AppInfoPlayList (), PlayList (), or PlayItem). The value of a certain is_MixApp or is_MixApp_2 and is_MixApp_1 that is a flag indicating whether or not the audio stream # 2 can be combined with the audio stream # 1 are appropriately used for the control of the switch 45.

PlayListファイルには、Main Path、Sub Pathの情報の他、STN_table()が含まれている。コントローラ34は、PlayListファイルに含まれるPlayItemが参照するメインClipに含まれるメインClip AVストリームファイル、サブClipに含まれるSubPlayItemが参照するサブClip AVストリームファイル、およびSubPlayItemが参照するテキストサブタイトルデータを、再生データ取得部31を介して記録媒体21などから読み出す。ここで、PlayItemが参照するメインClipとSubPlayItemが参照するサブClipとが、異なる記録媒体に記録されていてもよい。例えば、メインClipが記録媒体21に記録されており、対応するサブClipは、例えば、ネットワーク22を介して供給され、再生装置20に内蔵されている図示しないHDDに記憶されたものであってもよい。また、コントローラ34は、自分自身(再生装置20)の再生機能に対応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置20の言語設定の初期情報に対応するエレメンタリストリームだけを選択し、再生するよう制御する。   The PlayList file includes STN_table () in addition to Main Path and Sub Path information. The controller 34 reproduces the main Clip AV stream file included in the main Clip referred to by the PlayItem included in the PlayList file, the sub Clip AV stream file referred to by the SubPlayItem included in the sub Clip, and the text subtitle data referred to by the SubPlayItem. Reading from the recording medium 21 or the like via the data acquisition unit 31. Here, the main clip referred to by PlayItem and the sub Clip referred to by SubPlayItem may be recorded on different recording media. For example, the main clip is recorded on the recording medium 21, and the corresponding sub clip is supplied via the network 22 and stored in an HDD (not shown) built in the playback device 20. Good. In addition, the controller 34 selects and plays an elementary stream corresponding to the playback function of itself (playback device 20), or only the elementary stream corresponding to the initial information of the language setting of the playback device 20. Select and control to play.

AVデコーダ部33には、バッファ51乃至54、PIDフィルタ55、PIDフィルタ56、スイッチ57,58、バックグラウンドデコーダ71、ビデオデコーダ72、プレゼンテーショングラフィックスデコーダ73、インタラクティブグラフィックスデコーダ74、1stオーディオデコーダ75−1、2ndオーディオデコーダ75−2、Text-STコンポジション76、スイッチ77、バックグラウンドプレーン生成部91、ビデオプレーン生成部92、プレゼンテーショングラフィックスプレーン生成部93、インタラクティブグラフィックスプレーン生成部94、バッファ95、ビデオデータ処理部96、ミキシング処理部97、スイッチ101、およびミキシング処理部102が設けられている。   The AV decoder unit 33 includes buffers 51 to 54, a PID filter 55, a PID filter 56, switches 57 and 58, a background decoder 71, a video decoder 72, a presentation graphics decoder 73, an interactive graphics decoder 74, and a 1st audio decoder 75. -1, 2nd audio decoder 75-2, Text-ST composition 76, switch 77, background plane generation unit 91, video plane generation unit 92, presentation graphics plane generation unit 93, interactive graphics plane generation unit 94, buffer 95, a video data processing unit 96, a mixing processing unit 97, a switch 101, and a mixing processing unit 102 are provided.

コントローラ34により読み出されたファイルデータは、図示せぬ復調、ECC復号部により復調され、復調された多重化ストリームに誤り訂正が施される。スイッチ32は、復調され、誤り訂正が施されたデータを、コントローラ34からの制御に基づいて、ストリームの種類ごとに選択し、対応するバッファ51乃至54に供給する。具体的には、スイッチ32は、コントローラ34からの制御に基づいて、バックグラウンドイメージデータをバッファ51に供給し、メインClip AV Streamのデータをバッファ52に供給し、サブClip AV Streamのデータをバッファ53に供給し、Text-STのデータをバッファ54に供給するようスイッチ32を切り替える。バッファ51は、バックグラウンドイメージデータをバッファリングし、バッファ52は、メインClip AV Streamのデータをバッファリングし、バッファ53は、サブClip AV Streamのデータをバッファリングし、バッファ54は、Text-STデータをバッファリングする。   The file data read by the controller 34 is demodulated by a demodulation and ECC decoding unit (not shown), and error correction is performed on the demodulated multiplexed stream. The switch 32 selects the demodulated and error-corrected data for each stream type based on the control from the controller 34 and supplies the selected data to the corresponding buffers 51 to 54. Specifically, the switch 32 supplies the background image data to the buffer 51, supplies the main Clip AV Stream data to the buffer 52, and buffers the sub Clip AV Stream data based on the control from the controller 34. The switch 32 is switched so that the Text-ST data is supplied to the buffer 54. The buffer 51 buffers background image data, the buffer 52 buffers main Clip AV Stream data, the buffer 53 buffers sub Clip AV Stream data, and the buffer 54 Text-ST. Buffer data.

メインClip AV Streamは、ビデオとオーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスのうち、ビデオに加えて1つ以上のストリームを多重化したストリーム(例えばトランスポートストリーム)である。サブClipは、オーディオとビットマップ字幕(Presentation Graphics stream)とインタラクティブグラフィックスとオーディオのうち、1つ以上のストリームを多重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなくてもよい。   The main Clip AV Stream is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics. The sub clip is a stream obtained by multiplexing one or more streams of audio, bitmap subtitle (Presentation Graphics stream), interactive graphics, and audio. Note that the data of the text subtitle data file (Text-ST) may or may not be in the form of a multiplexed stream such as a transport stream.

また、再生データ取得部31は、メインClip AV StreamとサブClip AV Streamおよびテキストサブタイトルデータのそれぞれのファイルを時分割に交互に読み出しても良いし、または、メインClip AV Streamを読み出す前に、サブClip AV Streamやテキストサブタイトルデータを予め読み出しておき、すべてバッファ(バッファ53またはバッファ54)へプリロードしておくようにしてもよい。   Further, the reproduction data acquisition unit 31 may alternately read each file of the main Clip AV Stream, the sub Clip AV Stream, and the text subtitle data in a time division manner, or before reading the main Clip AV Stream, Clip AV Stream and text subtitle data may be read in advance and preloaded into the buffer (buffer 53 or buffer 54).

そして、メインClip AV Stream用リードバッファであるバッファ52から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ55へ出力される。このPIDフィルタ55は、入力されたメインClip AV StreamをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ55は、ビデオストリームをビデオデコーダ72に供給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを、スイッチ45,1stオーディオデコーダ75−1,2ndオーディオデコーダ75−2への供給元となるスイッチ101に供給する。   Then, the stream data read from the buffer 52, which is the main Clip AV Stream read buffer, is output to the PID (packet ID) filter 55 at the subsequent stage at a predetermined timing. The PID filter 55 distributes the input main Clip AV Stream to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 55 supplies the video stream to the video decoder 72, supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, and supplies the interactive graphics stream to the interactive graphics decoder 74. The audio stream is supplied to a switch 101 which is a supply source to the switch 45, the 1st audio decoder 75-1, and the 2nd audio decoder 75-2.

プレゼンテーショングラフィックスストリームは、例えば、ビットマップの字幕データであり、テキストサブタイトルデータは、例えば、テキスト字幕データである。   The presentation graphics stream is, for example, bitmap subtitle data, and the text subtitle data is, for example, text subtitle data.

サブClip AV Stream用リードバッファであるバッファ53から読み出されたストリームデータは、所定のタイミングで、後段のPID(パケットID)フィルタ56へ出力される。このPIDフィルタ56は、入力されたサブClip AV StreamをPID(パケットID)に応じて、後段の各エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、PIDフィルタ56は、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデコーダ73への供給元となるスイッチ57に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ74への供給元となるスイッチ58に供給し、オーディオストリームを、スイッチ45,1stオーディオデコーダ75−1,2ndオーディオデコーダ75−2への供給元となるスイッチ101に供給する。   The stream data read from the buffer 53, which is a sub-Clip AV Stream read buffer, is output to a PID (packet ID) filter 56 at the subsequent stage at a predetermined timing. The PID filter 56 distributes the input sub Clip AV Stream to the decoders of the elementary streams in the subsequent stage according to the PID (packet ID) and outputs the result. That is, the PID filter 56 supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73 and supplies the interactive graphics stream to the switch 58 serving as the supply source to the interactive graphics decoder 74. The audio stream is supplied to the switch 101 which is a supply source to the switch 45, the 1st audio decoder 75-1, and the 2nd audio decoder 75-2.

バックグラウンドイメージデータをバッファリングするバッファ51から読み出されたデータは、所定のタイミングでバックグラウンドデコーダ71に供給される。バックグラウンドデコーダ71は、バックグラウンドイメージデータをデコードし、デコードしたバックグラウンドイメージデータをバックグラウンドプレーン生成部91に供給する。   Data read from the buffer 51 that buffers background image data is supplied to the background decoder 71 at a predetermined timing. The background decoder 71 decodes the background image data and supplies the decoded background image data to the background plane generation unit 91.

PIDフィルタ55により振り分けられたビデオストリームは、後段のビデオデコーダ72に供給される。ビデオデコーダ72は、ビデオストリームをデコードし、デコードしたビデオデータをビデオプレーン生成部92へ出力する。   The video stream distributed by the PID filter 55 is supplied to the video decoder 72 at the subsequent stage. The video decoder 72 decodes the video stream and outputs the decoded video data to the video plane generation unit 92.

スイッチ57は、PIDフィルタ55から供給されたメインClipに含まれるプレゼンテーショングラフィックスストリームと、サブClip に含まれるプレゼンテーショングラフィックスストリームのうちのいずれか1つを選択し、選択したプレゼンテーショングラフィックスストリームを、後段のプレゼンテーショングラフィックスデコーダ73に供給する。プレゼンテーショングラフィックスデコーダ73は、プレゼンテーショングラフィックスストリームをデコードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼンテーショングラフィックスプレーン生成部93への供給元となるスイッチ77に供給する。   The switch 57 selects one of the presentation graphics stream included in the main clip supplied from the PID filter 55 and the presentation graphics stream included in the sub clip, and selects the selected presentation graphics stream. This is supplied to the presentation graphics decoder 73 in the subsequent stage. The presentation graphics decoder 73 decodes the presentation graphics stream, and supplies the decoded presentation graphics stream data to the switch 77 serving as a supply source to the presentation graphics plane generation unit 93.

また、スイッチ58は、PIDフィルタ55から供給されたメインClipに含まれるインタラクティブグラフィックスストリームと、サブClip に含まれるインタラクティブグラフィックスストリームのうちのいずれか1つを選択し、選択したインタラクティブグラフィックスストリームを、後段のインタラクティブグラフィックスストリームデコーダ74に供給する。すなわち、インタラクティブグラフィックスデコーダ74へ同時に入力されるインタラクティブグラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのどちらかから分離されたストリームである。インタラクティブグラフィックスデコーダ74は、インタラクティブグラフィックスストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータを、インタラクティブグラフィックスプレーン生成部94に供給する。   Further, the switch 58 selects one of the interactive graphics stream included in the main clip supplied from the PID filter 55 and the interactive graphics stream included in the sub clip, and selects the selected interactive graphics stream. Is supplied to the interactive graphics stream decoder 74 in the subsequent stage. That is, the interactive graphics stream input to the interactive graphics decoder 74 at the same time is a stream separated from either the main Clip AV Stream or the sub Clip AV Stream. The interactive graphics decoder 74 decodes the interactive graphics stream and supplies the decoded interactive graphics stream data to the interactive graphics plane generating unit 94.

さらに、スイッチ101は、PIDフィルタ55または56から供給されたメインClipまたはサブClip に含まれる所定の1つのオーディオストリームを選択し、選択したオーディオストリームを、後段のスイッチ45および1stオーディオデコーダ75−1、または、2ndオーディオデコーダ75−2に供給する。   Further, the switch 101 selects one predetermined audio stream included in the main clip or the sub clip supplied from the PID filter 55 or 56, and selects the selected audio stream as the switch 45 and the 1st audio decoder 75-1 at the subsequent stage. Or supplied to the 2nd audio decoder 75-2.

本実施の形態では例えば、1stオーディオデコーダ75−1は、オーディオストリーム#1をデコードするためのものであり、2ndオーディオデコーダ75−2は、オーディオストリーム#2をデコードするためのものである。具体的には、図25のSTN_table()において、audio_stream_idで与えられるオーディオストリームをデコードするためのものが1stオーディオデコーダ75−1であり、audio_stream_id2で与えられるオーディオストリームをデコードするためのものが2ndオーディオデコーダ75−2である。   In the present embodiment, for example, the 1st audio decoder 75-1 is for decoding the audio stream # 1, and the 2nd audio decoder 75-2 is for decoding the audio stream # 2. Specifically, in STN_table () of FIG. 25, the 1st audio decoder 75-1 is for decoding the audio stream given by audio_stream_id, and the 2nd audio is for decoding the audio stream given by audio_stream_id2. This is a decoder 75-2.

また、スイッチ45を介してデジタルオーディオ信号インターフェース112から出力され、また、1stオーディオデコーダ75−1へ入力されるオーディオストリーム#1は、メインClipまたはサブClipの何れかから分離されたストリームである。また、同様に、2ndオーディオデコーダ75−2へ入力されるオーディオストリーム#2も、メインClipまたはサブClipの何れかから分離されたストリームである。   The audio stream # 1 output from the digital audio signal interface 112 via the switch 45 and input to the 1st audio decoder 75-1 is a stream separated from either the main clip or the sub clip. Similarly, the audio stream # 2 input to the 2nd audio decoder 75-2 is also a stream separated from either the main clip or the sub clip.

例えば、メインClipにオーディオストリーム#1とオーディオストリーム#2とが含まれていた場合、PIDフィルタ55は、オーディオストリームのPIDに基づいて、オーディオストリーム#1とオーディオストリーム#2とをフィルタリングし、スイッチ101に供給する。この場合、スイッチ101は、PIDフィルタ55から供給されたオーディオストリーム#1を、1stオーディオデコーダ75−1に供給するようスイッチを選択し、PIDフィルタ55から供給されたオーディオストリーム#2を、2ndオーディオデコーダ75−2に供給するようスイッチを選択する。   For example, when the audio stream # 1 and the audio stream # 2 are included in the main clip, the PID filter 55 filters the audio stream # 1 and the audio stream # 2 based on the PID of the audio stream, and switches 101. In this case, the switch 101 selects the switch so that the audio stream # 1 supplied from the PID filter 55 is supplied to the 1st audio decoder 75-1, and the audio stream # 2 supplied from the PID filter 55 is selected as the 2nd audio. A switch is selected to be supplied to the decoder 75-2.

1stオーディオデコーダ75−1は、オーディオデストリーム#1としての符号化オーディオストリームをデコードし、その結果得られる非圧縮オーディオ信号をミキシング処理部102に供給する。また、2ndオーディオデコーダ75−2は、オーディオデストリーム#2としての符号化オーディオストリームをデコードし、その結果得られる非圧縮オーディオ信号をミキシング処理部102に供給する。   The 1st audio decoder 75-1 decodes the encoded audio stream as the audio destream # 1, and supplies an uncompressed audio signal obtained as a result to the mixing processing unit 102. The 2nd audio decoder 75-2 decodes the encoded audio stream as the audio destream # 2, and supplies the uncompressed audio signal obtained as a result to the mixing processing unit 102.

ここで、オーディオストリーム#1とオーディオストリーム#2とを重畳して再生するような場合(ユーザにより再生するオーディオストリームとして、2つのオーディオストリームが選択された場合)、1stオーディオデコーダ75−1によりデコードされたオーディオストリーム#1(非圧縮オーディオ信号)と、2ndオーディオデコーダ75−2によりデコードされたオーディオストリーム#2(非圧縮オーディオ信号)とが、ミキシング処理部102に供給される。   Here, when audio stream # 1 and audio stream # 2 are superimposed and reproduced (when two audio streams are selected as audio streams to be reproduced by the user), decoding is performed by the 1st audio decoder 75-1. The audio stream # 1 (uncompressed audio signal) and the audio stream # 2 (uncompressed audio signal) decoded by the 2nd audio decoder 75-2 are supplied to the mixing processing unit 102.

ミキシング処理部102は、1stオーディオデコーダ75−1からのオーディオストリーム#1と、2ndオーディオデコーダ75−2からのオーディオストリーム#2とをミキシング(重畳)し、後段のミキシング処理部97に出力する。なお、本実施の形態においては、1stオーディオデコーダ75−1から出力されるオーディオストリーム#1と2ndオーディオデコーダ75−2から出力されるオーディオストリーム#2とをミキシング(重畳)することを、合成するとも称する。すなわち、合成とは、2つのオーディオデータを、ミキシングすることも示すものとする。   The mixing processing unit 102 mixes (superimposes) the audio stream # 1 from the 1st audio decoder 75-1 and the audio stream # 2 from the 2nd audio decoder 75-2, and outputs the result to the mixing processing unit 97 at the subsequent stage. In the present embodiment, mixing (superimposing) the audio stream # 1 output from the 1st audio decoder 75-1 and the audio stream # 2 output from the 2nd audio decoder 75-2 is combined. Also called. In other words, synthesis means to mix two audio data.

また、スイッチ32により選択されたサウンドデータは、バッファ95に供給され、バッファリングされる。バッファ95は、所定のタイミングでサウンドデータをミキシング処理部97に供給する。サウンドデータは、この場合、メニュー選択などによる効果音のデータなど、ストリームとは独立して存在する音声データである。ミキシング処理部97は、ミキシング処理部102によりミキシングされたオーディオデータ(1stオーディオデコーダ75−1から出力されたオーディオストリーム#1と2ndオーディオデコーダ75−2から出力されたオーディオストリーム#2とがミキシングされた非圧縮オーディオ信号)と、バッファ95から供給されてきたサウンドデータをミキシング(重畳、または合成)し、非圧縮オーディオ信号として出力する。   The sound data selected by the switch 32 is supplied to the buffer 95 and buffered. The buffer 95 supplies the sound data to the mixing processing unit 97 at a predetermined timing. In this case, the sound data is sound data existing independently of the stream, such as sound effect data by menu selection or the like. The mixing processing unit 97 mixes the audio data (the audio stream # 1 output from the 1st audio decoder 75-1 and the audio stream # 2 output from the 2nd audio decoder 75-2) mixed by the mixing processing unit 102. (Uncompressed audio signal) and the sound data supplied from the buffer 95 are mixed (superimposed or synthesized) and output as an uncompressed audio signal.

AVデコーダ部33のミキシング処理部97から出力された非圧縮オーディオ信号は、オーディオエンコーダ41、スイッチ45、および、D/A変換部43にそれぞれ出力される。   The uncompressed audio signal output from the mixing processing unit 97 of the AV decoder unit 33 is output to the audio encoder 41, the switch 45, and the D / A conversion unit 43, respectively.

D/A変換部43は、ミキシング処理部97から供給された非圧縮オーディオ信号をデジタル信号からアナログ信号に変換し、アナログオーディオ信号インターフェース111に供給する。即ち、アナログオーディオ信号インターフェース111は、このアナログの非圧縮オーディオ信号を外部に出力する。   The D / A converter 43 converts the uncompressed audio signal supplied from the mixing processor 97 from a digital signal to an analog signal and supplies the analog signal to the analog audio signal interface 111. That is, the analog audio signal interface 111 outputs the analog uncompressed audio signal to the outside.

オーディオエンコーダ41は、ミキシング処理部97から供給された非圧縮オーディオ信号をエンコードし、その結果得られる符号化オーディオストリームをスイッチ45に供給する。即ち、オーディオエンコーダ41は、再符号化処理を実行することになる。従って、オーディオエンコーダ41からの出力データを、適宜、再符号化オーディオストリームと称する。   The audio encoder 41 encodes the uncompressed audio signal supplied from the mixing processing unit 97 and supplies the encoded audio stream obtained as a result to the switch 45. That is, the audio encoder 41 performs a re-encoding process. Therefore, the output data from the audio encoder 41 is appropriately referred to as a re-encoded audio stream.

このようにして、スイッチ45には、スイッチ101からの符号化オーディオストリーム、オーディオエンコーダ41からの再符号化オーディオストリーム、または、ミキシング処理部97からの非圧縮オーディオ信号が、入力信号として適宜供給される。   In this way, the encoded audio stream from the switch 101, the re-encoded audio stream from the audio encoder 41, or the uncompressed audio signal from the mixing processing unit 97 is appropriately supplied to the switch 45 as an input signal. The

そこで、スイッチ45は、コントローラ34の制御に従って、何れかの入力信号を選択し、それを出力信号として出力する。即ち、スイッチ45からの出力信号は、何れもデジタルのオーディオ信号となる。これらのデジタルのオーディオ信号は、デジタルオーディオ信号インターフェース112に供給される。即ち、デジタルオーディオ信号インターフェース112は、このデジタルのオーディオ信号を外部に出力する。   Therefore, the switch 45 selects any input signal under the control of the controller 34 and outputs it as an output signal. That is, any output signal from the switch 45 is a digital audio signal. These digital audio signals are supplied to the digital audio signal interface 112. That is, the digital audio signal interface 112 outputs this digital audio signal to the outside.

なお、スイッチ45の切り替えを行うためのコントローラ34の制御については、後述する図38のオーディオ再生処理の一処理として説明することにする。   The control of the controller 34 for switching the switch 45 will be described as one process of the audio reproduction process of FIG. 38 described later.

ところで、AVデコーダ部33内部において、テキストサブタイトル用リードバッファであるバッファ54から読み出されたデータは、所定のタイミングで、後段のテキストサブタイトルコンポジション(デコーダ)76へ出力される。テキストサブタイトルコンポジション76は、Text-STデータをデコードし、スイッチ77に供給する。   By the way, in the AV decoder 33, the data read from the buffer 54, which is a text subtitle read buffer, is output to the subsequent text subtitle composition (decoder) 76 at a predetermined timing. The text subtitle composition 76 decodes the Text-ST data and supplies it to the switch 77.

スイッチ77は、プレゼンテーショングラフィックスデコーダ73によりデコードされたプレゼンテーショングラフィックスストリームと、Text-ST(テキストサブタイトルデータ)のうち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン生成部93に供給する。すなわち、プレゼンテーショングラフィックスプレーン生成部93へ同時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ73またはテキストサブタイトル(Text-ST)コンポジション76のうちのいずれかの出力である。また、プレゼンテーショングラフィックスデコーダ73へ同時に入力されるプレゼンテーショングラフィックスストリームは、メインClip AV StreamまたはサブClip AV Streamのいずれかから分離されたストリームである(スイッチ57により選択される)。したがって、プレゼンテーショングラフィックスプレーン生成部93へ同時に出力される字幕画像は、メインClip AV Streamからのプレゼンテーショングラフィックスストリーム、またはサブClip AV Streamからのプレゼンテーショングラフィックスストリーム、またはテキストサブタイトルデータのデコード出力である。   The switch 77 selects either the presentation graphics stream decoded by the presentation graphics decoder 73 or Text-ST (text subtitle data), and supplies the selected data to the presentation graphics plane generating unit 93. . That is, the subtitle image simultaneously supplied to the presentation graphics plane generating unit 93 is an output of either the presentation graphics decoder 73 or the text subtitle (Text-ST) composition 76. The presentation graphics stream that is simultaneously input to the presentation graphics decoder 73 is a stream separated from either the main Clip AV Stream or the sub Clip AV Stream (selected by the switch 57). Therefore, the subtitle image simultaneously output to the presentation graphics plane generating unit 93 is a decoded output of the presentation graphics stream from the main Clip AV Stream, the presentation graphics stream from the sub Clip AV Stream, or the text subtitle data. .

バックグラウンドプレーン生成部91は、バックグラウンドデコーダ71から供給されたバックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部96に供給する。ビデオプレーン生成部92は、ビデオデコーダ72から供給されたビデオデータに基づいて、ビデオプレーンを生成し、これをビデオデータ処理部96に供給する。プレゼンテーショングラフィックスプレーン生成部93は、スイッチ77により選択され、供給されたデータ(プレゼンテーショングラフィックスストリームまたはテキストサブタイトルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。インタラクティブグラフィックスプレーン生成部94は、インタラクティブグラフィックスデコーダ74から供給されたインタラクティブグラフィックスストリームのデータに基づいて、インタラクティブグラフィックスプレーンを生成し、これをビデオデータ処理部96に供給する。   Based on the background image data supplied from the background decoder 71, for example, the background plane generation unit 91 generates a background plane that becomes a wallpaper image when the video image is displayed in a reduced size, and this is converted into the video data. This is supplied to the processing unit 96. The video plane generation unit 92 generates a video plane based on the video data supplied from the video decoder 72 and supplies this to the video data processing unit 96. The presentation graphics plane generation unit 93 generates, for example, a presentation graphics plane which is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the switch 77 and supplied, and this is converted into a video. The data is supplied to the data processing unit 96. The interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74, and supplies this to the video data processing unit 96.

ビデオデータ処理部96は、バックグラウンドプレーン生成部91からのバックグラウンドプレーン、ビデオプレーン生成部92からのビデオプレーン、プレゼンテーショングラフィックスプレーン生成部93からのプレゼンテーショングラフィックスプレーン、およびインタラクティブグラフィックスプレーン生成部94からのインタラクティブグラフィックスプレーンを合成し、ビデオ信号として出力する。   The video data processing unit 96 includes a background plane from the background plane generation unit 91, a video plane from the video plane generation unit 92, a presentation graphics plane from the presentation graphics plane generation unit 93, and an interactive graphics plane generation unit. The interactive graphics plane from 94 is synthesized and output as a video signal.

これらのスイッチ57、58、101、77は、ユーザインターフェースを介するユーザからの選択、または、対象となるデータが含まれるファイル側に基づいて、スイッチを切り替える。   These switches 57, 58, 101, and 77 are switched based on selection from the user via the user interface or the file side that includes the target data.

ビデオエンコーダ42は、ビデオデータ処理部96から供給された非圧縮のビデオ信号をエンコードし、圧縮ビデオ信号インターフェース114に供給する。D/A変換部44は、ビデオデータ処理部96から供給された非圧縮のビデオ信号をデジタル信号からアナログ信号に変換し、アナログビデオ信号インターフェース115に供給する。   The video encoder 42 encodes the uncompressed video signal supplied from the video data processing unit 96 and supplies it to the compressed video signal interface 114. The D / A conversion unit 44 converts the uncompressed video signal supplied from the video data processing unit 96 from a digital signal to an analog signal and supplies the analog signal to the analog video signal interface 115.

非圧縮ビデオ信号インターフェース113は、ビデオデータ処理部96から供給された非圧縮ビデオ信号を外部に出力する。圧縮ビデオ信号インターフェース114は、ビデオエンコーダ42から供給された符号化ビデオストリームを外部に出力する。アナログビデオ信号インターフェース115は、D/A変換部44から供給されたアナログの非圧縮ビデオ信号を外部に出力する。   The uncompressed video signal interface 113 outputs the uncompressed video signal supplied from the video data processing unit 96 to the outside. The compressed video signal interface 114 outputs the encoded video stream supplied from the video encoder 42 to the outside. The analog video signal interface 115 outputs the analog uncompressed video signal supplied from the D / A converter 44 to the outside.

次に、図38のフローチャートを参照して、オーディオ信号を再生する場合に実行される、オーディオ信号再生処理の一例について説明する。   Next, an example of audio signal reproduction processing executed when reproducing an audio signal will be described with reference to the flowchart of FIG.

ただし、図38は、本発明の特徴を明確にすべく、スイッチ45の切り替え制御の手法が重点的に記載されており、AVデコーダ部33内部の処理については概略が記載されている。即ち、AVデコード部33内部の処理自体については、上述した各ブロックの構成の説明を参照することで容易に理解できるため、オーディオ信号再生処理の説明では、その概略を述べるに留める。   However, in FIG. 38, in order to clarify the features of the present invention, the switching control method of the switch 45 is mainly described, and the process inside the AV decoder unit 33 is outlined. That is, since the processing within the AV decoding unit 33 can be easily understood by referring to the description of the configuration of each block described above, only the outline of the description of the audio signal reproduction processing will be described.

また、以下、コントローラ34がスイッチ45の切り替え制御を行うとして、再生処理の説明を行う。   Hereinafter, the reproduction process will be described on the assumption that the controller 34 performs switching control of the switch 45.

さらにまた、実際には、オーディオ信号再生処理は、それのみが実行されることは少なく、ビデオ信号の再生処理と並行して実行されることが多いが、以下の説明では、説明の簡略上、ビデオ信号の再生処理については言及しない。   Furthermore, in practice, the audio signal reproduction process is rarely performed alone and is often performed in parallel with the video signal reproduction process. However, in the following description, for simplicity of explanation, There is no mention of video signal playback processing.

ステップS1において、コントローラ34は、ユーザ設定により符号化オーディオストリームの出力が指示されているか否かを判定する。   In step S1, the controller 34 determines whether or not the output of the encoded audio stream is instructed by the user setting.

即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、例えば、コーデックタイプごとの非圧縮オーディオ信号を出力するのか、それとも、符号化オーディオストリームを出力するのかについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。   That is, in this embodiment, the user selects, for example, whether to output an uncompressed audio signal for each codec type or an encoded audio stream using a user interface or the like. The selection is accepted by the controller 34 as a part of the user setting.

この例の場合では、コーデックタイプごとの非圧縮オーディオ信号を出力するという選択がユーザによりなされていた場合、ステップS1の処理でNOであると判定されて、処理はステップS2に進む。   In the case of this example, if the user has selected to output an uncompressed audio signal for each codec type, it is determined NO in the process of step S1, and the process proceeds to step S2.

ステップS2において、コントローラ34は、PlayListファイルを読み出す。   In step S2, the controller 34 reads the PlayList file.

ステップS3において、コントローラ34は、AVデコーダ部33を制御して、後述する音声合成に関するユーザ設定に基づき、PlayListファイルに従って選択されたオーディオストリーム#1およびオーディオストリーム#2を適宜デコード処理しサウンドデータと共に適宜合成処理する。   In step S3, the controller 34 controls the AV decoder unit 33 to appropriately decode the audio stream # 1 and the audio stream # 2 selected according to the PlayList file based on user settings relating to speech synthesis described later, together with sound data. Perform synthesis processing as appropriate.

即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介して1stオーディオデコーダ75−1に供給してデコードさせ、バッファ52または53にバッファリングされたオーディオストリーム#2を、スイッチ101を介して2ndオーディオデコーダ75−2に供給してデコードさせ、ミキシング処理部102を制御して、1stオーディオデコーダ75−1および2ndオーディオデコーダ75−2においてデコードされたオーディオストリームの合成処理を適宜実行させ、ミキシング処理部97を制御して、ミキシング処理部102により合成されたオーディオストリームとバッファ95に保持されているサウンドデータとの合成処理を適宜実行させる。   That is, the controller 34 controls the PID filters 55 and 56 and the switch 101 in the AV decoder unit 33 as appropriate, and the audio stream # 1 buffered in the buffer 52 or 53 is sent to the 1st audio decoder 75-via the switch 101. The audio stream # 2 supplied to 1 and decoded and buffered in the buffer 52 or 53 is supplied to the 2nd audio decoder 75-2 via the switch 101 to be decoded, and the mixing processing unit 102 is controlled. The audio stream synthesized by the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 is appropriately executed, the mixing processor 97 is controlled, and the audio stream and the buffer 95 synthesized by the mixing processor 102 are stored in the buffer 95. Retained The process of synthesizing with the sound data is appropriately executed.

このステップS3の処理済のデータは、デジタルの非圧縮オーディオ信号としてAVデコーダ部33から出力される。   The processed data in step S3 is output from the AV decoder unit 33 as a digital uncompressed audio signal.

そこで、コントローラ34は、ステップS4において、この処理済のデータを、非圧縮オーディオ信号として外部に出力するように、スイッチ45を制御する。   Therefore, in step S4, the controller 34 controls the switch 45 so that the processed data is output to the outside as an uncompressed audio signal.

詳細には、ステップS3の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。   More specifically, the processed data in step S3, that is, the digital uncompressed audio signal is supplied directly to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), as well as an audio encoder. 41. Then, the uncompressed audio signal supplied to the audio encoder 41 is subjected to an encoding process (re-encoding process) there, and a re-encoded audio stream obtained as a result is supplied to the switch 45 (3 in FIG. 37). Supplied to the middle of the two inputs).

従って、このステップS4の処理では、スイッチ45の入力が、図37中3つの入力端のうちの下端に切り替えられ、その下端に供給されたデジタルの非圧縮オーディオ信号が、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。   Therefore, in the process of step S4, the input of the switch 45 is switched to the lower end of the three input ends in FIG. 37, and the digital uncompressed audio signal supplied to the lower end is supplied from the output end of the switch 45. It is output to the outside via the digital audio signal interface 112. In other words, external output of the re-encoded audio stream is prohibited.

なお、ステップS3の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。   The processed data in step S3, that is, the digital uncompressed audio signal is also supplied to the D / A converter 43, where it is converted into an analog uncompressed audio signal, and then the analog audio signal interface 111. Is output to the outside.

ステップS5において、コントローラ34は、再生終了であるか否かを判定する。   In step S5, the controller 34 determines whether or not the reproduction is finished.

ステップS5において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。   If it is determined in step S5 that the playback has ended, the audio signal playback process ends.

これに対して、ステップS5において、まだ再生終了ではないと判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返される。   On the other hand, if it is determined in step S5 that the reproduction has not ended yet, the process returns to step S2, and the subsequent processes are repeated.

このようにして、ユーザ設定として、上述した例のうちの、コーデックタイプごとの非圧縮オーディオ信号を出力すると選択されていた場合には、ステップS1の処理でNOであると判定されて、ステップS2乃至S4の処理が実行されることになる。   In this way, when the user setting is selected to output an uncompressed audio signal for each codec type in the above-described example, it is determined NO in the process of step S1, and step S2 is performed. The process from S4 to S4 is executed.

これに対して、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択されていた場合には、ステップS1の処理でYESであると判定されて、処理はステップS6に進む。   On the other hand, when the user setting is selected to output the encoded audio stream in the above-described example, it is determined as YES in the process of step S1, and the process proceeds to step S6. .

ステップS6において、コントローラ34は、ユーザ設定により再符号化の禁止が指示されているか否かを判定する。   In step S6, the controller 34 determines whether or not prohibition of re-encoding is instructed by the user setting.

即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、例えば、再符号化オーディオストリームを出力するのか、それとも、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力するかについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。   That is, in this embodiment, the user outputs, for example, a re-encoded audio stream using a user interface or the like, or the encoded audio stream (audio stream # acquired by the reproduction data acquisition unit 31). It is possible to select whether to output 1) as it is, and such selection is accepted by the controller 34 as a part of the user setting.

この例の場合では、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力するという選択がユーザによりなされていた場合、ステップS6の処理でYESであると判定されて、処理はステップS7に進む。   In the case of this example, if the user has selected to output the encoded audio stream (audio stream # 1) acquired by the reproduction data acquisition unit 31 as it is, it is determined as YES in the process of step S6. Then, the process proceeds to step S7.

ステップS7において、コントローラ34は、PlayListファイルを読み出す。   In step S7, the controller 34 reads the PlayList file.

ステップS8において、コントローラ34は、AVデコーダ部33とスイッチ45とを制御して、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームをそのまま外部に出力する。   In step S8, the controller 34 controls the AV decoder 33 and the switch 45 to output the encoded audio stream of the audio stream # 1 selected according to the PlayList file to the outside as it is.

即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介してスイッチ45(図37中3つの入力端のうちの上端)に供給する。このとき、コントローラ34は、スイッチ45の入力を、図37中3つの入力端のうちの上端に切り替えておく。すると、その上端に供給されたデジタルの符号化オーディオストリーム(オーディオストリーム#1)は、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。   That is, the controller 34 appropriately controls the PID filters 55 and 56 and the switch 101 in the AV decoder unit 33, and the audio stream # 1 buffered in the buffer 52 or 53 is switched via the switch 101 (FIG. 37). The upper three of the three input terminals). At this time, the controller 34 switches the input of the switch 45 to the upper end of the three input ends in FIG. Then, the digital encoded audio stream (audio stream # 1) supplied to the upper end thereof is output from the output end of the switch 45 and output to the outside via the digital audio signal interface 112. In other words, external output of the re-encoded audio stream is prohibited.

ステップS9において、コントローラ34は、再生終了であるか否かを判定する。   In step S9, the controller 34 determines whether or not the reproduction is finished.

ステップS9において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。   If it is determined in step S9 that the playback has ended, the audio signal playback process ends.

これに対して、ステップS9において、まだ再生終了ではないと判定された場合、処理はステップS6に戻され、それ以降の処理が繰り返される。   On the other hand, if it is determined in step S9 that the reproduction has not been completed yet, the process returns to step S6, and the subsequent processes are repeated.

このようにして、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択され、かつ、再生データ取得部31によって取得された符号化オーディオストリーム(オーディオストリーム#1)をそのまま出力すると選択されていた場合には、ステップS1の処理でYESであると判定されて、ステップS7,S8の処理が実行されることになる。   In this way, as the user setting, the encoded audio stream (audio stream # 1) that is selected to output the encoded audio stream in the above-described example and is acquired by the reproduction data acquisition unit 31 is output as it is. If it is selected, it is determined as YES in the process of step S1, and the processes of steps S7 and S8 are executed.

これに対して、ユーザ設定として、上述した例のうちの、符号化オーディオストリームを出力すると選択され、かつ、再符号化オーディオストリームを出力すると選択されていた場合には、ステップS1の処理でYESであると判定された後、ステップS6の処理でNOであると判定されて、処理はステップS10に進む。   On the other hand, if the user setting is selected to output the encoded audio stream and the output of the re-encoded audio stream is selected in the above-described example, YES is determined in the process of step S1. Is determined as NO in the process of step S6, and the process proceeds to step S10.

ステップS10において、コントローラ34は、PlayListファイルを読み出す。   In step S10, the controller 34 reads the PlayList file.

ステップS11において、コントローラ34は、PlayListファイルにおいて、オーディオストリーム#1に合成するデータの存在を示すフラグが1となっているか否かを判定する。   In step S11, the controller 34 determines whether or not the flag indicating the presence of data to be combined with the audio stream # 1 is 1 in the PlayList file.

即ち、コントローラ34は、PlayListファイルのIndexファイルのindexes()に記載されている、メインのオーディオストリームであるオーディオストリーム#1に合成されるデータが存在することを示すフラグのうちのいずれかが1となっているか否か、具体的には、サウンドデータが存在することを示すフラグis_MixAppまたはis_MixApp_2、もしくは、オーディオストリーム#2が存在することを示すフラグis_MixApp_1のうちのいずれかが1となっているか否かを判断する。   That is, the controller 34 has one of the flags indicating that there is data to be combined with the audio stream # 1 that is the main audio stream described in indexes () of the index file of the PlayList file. Specifically, whether one of the flag is_MixApp or is_MixApp_2 indicating that sound data exists or the flag is_MixApp_1 indicating that the audio stream # 2 exists is 1 Judge whether or not.

いずれのフラグも1ではないと判断された場合には、このIndexファイルに関連するデータには、再生装置20においてオーディオストリーム#1に合成することが可能なサウンドデータおよびオーディオストリーム#2が含まれていないことを意味するので、このような場合には、ステップS11においてNOであると判定されて、上述したステップS8以降の処理が実行される。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。   If it is determined that none of the flags is 1, the data related to the index file includes sound data and audio stream # 2 that can be combined with the audio stream # 1 in the playback device 20. In such a case, it is determined as NO in step S11, and the processing from step S8 onward is executed. That is, the encoded audio stream of the audio stream # 1 selected according to the PlayList file is output to the outside as it is. In other words, external output of the re-encoded audio stream is prohibited.

これに対して、いずれかのフラグが1となっていると判断された場合、ステップS11においてYESであると判定されて、処理はステップS12に進む。   On the other hand, when it is determined that one of the flags is 1, it is determined as YES in step S11, and the process proceeds to step S12.

ステップS12において、コントローラ34は、PlayListファイルに含まれるPlayItemのうちの、再生するPlayItemにおいてオーディオストリーム#2が存在しているか否かを判定する。   In step S12, the controller 34 determines whether or not the audio stream # 2 exists in the PlayItem to be reproduced among the PlayItems included in the PlayList file.

再生するPlayItemにおいてオーディオストリーム#2が存在しない場合には、ステップS12においてNOであると判定されて、処理はステップS14に進む。ただし、ステップS14以降の処理については後述する。   If there is no audio stream # 2 in the PlayItem to be played back, NO is determined in step S12, and the process proceeds to step S14. However, the processing after step S14 will be described later.

これに対して、再生するPlayItemにおいてオーディオストリーム#2が存在する場合には、ステップS12においてYESであると判定されて、処理はステップS13に進む。ステップS13において、コントローラ34は、ユーザ設定によりオーディオストリーム#2の出力が指示されているか否かを判定する。   On the other hand, when the audio stream # 2 exists in the PlayItem to be reproduced, it is determined as YES in Step S12, and the process proceeds to Step S13. In step S13, the controller 34 determines whether or not the output of the audio stream # 2 is instructed by the user setting.

即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、音声合成に関する諸設定、例えば、インタラクティブサウンドがある場合に合成を行うのか否かについての選択や、セカンダリオーディオ(オーディオストリーム#2)を再生して合成するのか否かについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。   That is, in this embodiment, the user uses a user interface or the like to select various settings related to speech synthesis, for example, whether or not to perform synthesis when there is an interactive sound, and secondary audio (audio stream # It is possible to select whether to reproduce and synthesize 2), and such selection is accepted by the controller 34 as part of the user settings.

この例の場合では、セカンダリオーディオ(オーディオストリーム#2)を再生して合成するという選択がユーザによりなされていた場合、ステップS13の処理でYESであると判定されて、処理はステップS17に進む。ただし、ステップS17以降の処理については後述する。   In the case of this example, if the user has selected to reproduce and synthesize secondary audio (audio stream # 2), it is determined YES in the process of step S13, and the process proceeds to step S17. However, the processing after step S17 will be described later.

これに対して、セカンダリオーディオ(オーディオストリーム#2)を再生して合成しないという選択がユーザによりなされていた場合、ステップS13の処理でNOであると判定されて、処理はステップS14に進む。   On the other hand, if the user has selected not to reproduce and synthesize secondary audio (audio stream # 2), it is determined NO in the process of step S13, and the process proceeds to step S14.

ステップS14において、コントローラ34は、PlayListファイルに含まれるPlayItemのうちの、再生するPlayItemにおいてオーディオストリーム#2以外に合成処理されうるデータが存在するか否かを判定する。   In step S <b> 14, the controller 34 determines whether there is data that can be combined with the PlayItem to be reproduced other than the audio stream # 2 among the PlayItems included in the PlayList file.

ここで、オーディオストリーム#2以外に合成処理されうるデータとは、例えばインタラクティブサウンド等のサウンドデータをいい、かかるサウンドデータが、再生するPlayItemにおいて存在しない場合には、ステップS14においてNOであると判定されて、処理はステップS15に進む。このステップS15の処理は、上述したステップ8の処理と基本的に同様である。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。その後、処理はステップS21に進む。ただし、ステップS21以降の処理については後述する。   Here, the data other than the audio stream # 2 that can be synthesized is sound data such as interactive sound, for example. If such sound data does not exist in the PlayItem to be reproduced, it is determined as NO in step S14. Then, the process proceeds to step S15. The process of step S15 is basically the same as the process of step 8 described above. That is, the encoded audio stream of the audio stream # 1 selected according to the PlayList file is output to the outside as it is. In other words, external output of the re-encoded audio stream is prohibited. Thereafter, the process proceeds to step S21. However, the processing after step S21 will be described later.

これに対して、例えばインタラクティブサウンド等のサウンドデータが、再生するPlayItemにおいて存在する場合には、ステップS14においてYESであると判定されて、処理はステップS16に進む。   On the other hand, for example, when sound data such as interactive sound is present in the PlayItem to be reproduced, it is determined as YES in Step S14, and the process proceeds to Step S16.

ステップS16において、コントローラ34は、ユーザ設定によりオーディオストリーム#2以外の合成処理の許可がなされているか否かを判定する。   In step S16, the controller 34 determines whether or not the synthesis process other than the audio stream # 2 is permitted by the user setting.

即ち、本実施の形態では、ユーザは、ユーザインターフェース等を利用して、上述したように、音声合成に関する諸設定、例えば、インタラクティブサウンド等のサウンドデータがある場合に合成を行うのか否かについての選択をすることができ、かかる選択がユーザ設定の一部としてコントローラ34に受け付けられる。   That is, in the present embodiment, the user uses the user interface or the like to set various settings related to speech synthesis, for example, whether to perform synthesis when there is sound data such as interactive sound, as described above. Selections can be made and such selections are accepted by the controller 34 as part of the user settings.

この例の場合では、インタラクティブサウンド等のサウンドデータがある場合であっても合成は行わないという選択がユーザによりなされていた場合、ステップS16の処理でNOであると判定されて、処理はステップS15に進む。即ち、PlayListファイルに従って選択されたオーディオストリーム#1の符号化オーディオストリームがそのまま外部に出力される。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。その後、処理はステップS21に進む。ただし、ステップS21以降の処理については後述する。   In the case of this example, if the user has selected not to perform synthesis even when there is sound data such as interactive sound, it is determined NO in the process of step S16, and the process proceeds to step S15. Proceed to That is, the encoded audio stream of the audio stream # 1 selected according to the PlayList file is output to the outside as it is. In other words, external output of the re-encoded audio stream is prohibited. Thereafter, the process proceeds to step S21. However, the processing after step S21 will be described later.

これに対して、インタラクティブサウンド等のサウンドデータがある場合に合成は行うという選択がユーザによりなされていた場合、ステップS16の処理でYESであると判定されて、処理はステップS17に進む。   On the other hand, if the user has selected to perform synthesis when there is sound data such as interactive sound, it is determined YES in the process of step S16, and the process proceeds to step S17.

ステップS17において、コントローラ34は、AVデコーダ部33を制御して、PlayListファイルに従って選択されたオーディオストリーム#1およびオーディオストリーム#2を適宜デコード処理しサウンドデータと共に適宜合成処理する。   In step S17, the controller 34 controls the AV decoder unit 33 to appropriately decode the audio stream # 1 and the audio stream # 2 selected according to the PlayList file, and appropriately combine them with the sound data.

即ち、コントローラ34は、AVデコーダ部33内のPIDフィルタ55,56やスイッチ101を適宜制御し、バッファ52または53にバッファリングされたオーディオストリーム#1を、スイッチ101を介して1stオーディオデコーダ75−1に供給してデコードさせ、バッファ52または53にバッファリングされたオーディオストリーム#2を、スイッチ101を介して2ndオーディオデコーダ75−2に供給してデコードさせ、ミキシング処理部102を制御して、1stオーディオデコーダ75−1および2ndオーディオデコーダ75−2においてデコードされたオーディオストリームの合成処理を適宜実行させ、ミキシング処理部97を制御して、ミキシング処理部102により合成されたオーディオストリームとバッファ95に保持されているサウンドデータとの合成処理を適宜実行させる。   That is, the controller 34 controls the PID filters 55 and 56 and the switch 101 in the AV decoder unit 33 as appropriate, and the audio stream # 1 buffered in the buffer 52 or 53 is sent to the 1st audio decoder 75-via the switch 101. The audio stream # 2 supplied to 1 and decoded and buffered in the buffer 52 or 53 is supplied to the 2nd audio decoder 75-2 via the switch 101 to be decoded, and the mixing processing unit 102 is controlled. The audio stream synthesized by the 1st audio decoder 75-1 and the 2nd audio decoder 75-2 is appropriately executed, the mixing processor 97 is controlled, and the audio stream and the buffer 95 synthesized by the mixing processor 102 are stored in the buffer 95. Retained The process of synthesizing with the sound data is appropriately executed.

このステップS17の処理済のデータは、デジタルの非圧縮オーディオ信号としてAVデコーダ部33から出力される。   The processed data in step S17 is output from the AV decoder unit 33 as a digital uncompressed audio signal.

ステップS18において、コントローラ34は、外部機器及び接続伝送路がオーディオストリーム#1のCh数(チャンネル数)と同じCh数の非圧縮オーディオ信号に対応しているか否かを判定する。   In step S18, the controller 34 determines whether or not the external device and the connection transmission path correspond to an uncompressed audio signal having the same Ch number as the Ch number (channel number) of the audio stream # 1.

非圧縮オーディオ信号に対応していない場合とは、再符号化の必要があることを意味しているので、このような場合には、コントローラ34は、ステップS18の処理でNOであると判定し、ステップS19において、ステップS17の処理済のデータを再符号化して外部に出力するように、スイッチ45を制御する。   The case of not corresponding to the uncompressed audio signal means that re-encoding is necessary. In such a case, the controller 34 determines NO in the process of step S18. In step S19, the switch 45 is controlled so that the data processed in step S17 is re-encoded and output to the outside.

詳細には、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。   Specifically, the processed data in step S17, that is, the digital uncompressed audio signal is directly supplied to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), and the audio encoder. 41. Then, the uncompressed audio signal supplied to the audio encoder 41 is subjected to an encoding process (re-encoding process) there, and a re-encoded audio stream obtained as a result is supplied to the switch 45 (3 in FIG. 37). Supplied to the middle of the two inputs).

従って、このステップS19の処理では、スイッチ45の入力が、図37中3つの入力端のうちの中央端に切り替えられ、その中央端に供給されたデジタルの再符号化オーディオストリームが、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。   Therefore, in the process of step S19, the input of the switch 45 is switched to the center end of the three input ends in FIG. 37, and the digital re-encoded audio stream supplied to the center end is It is output from the output end and output to the outside via the digital audio signal interface 112.

なお、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。   The processed data in step S17, that is, the digital uncompressed audio signal is also supplied to the D / A converter 43, where it is converted into an analog uncompressed audio signal, and then the analog audio signal interface 111. Is output to the outside.

これに対して、外部機器及び接続伝送路がオーディオストリーム#1のCh数と同じCh数の非圧縮オーディオ信号に対応している場合には、再符号化せずに外部に出力することができる。従って、このような場合には、コントローラ34は、ステップS18の処理でYESであると判定し、ステップS20において、ステップS17の処理済のデータを非圧縮オーディオ信号として外部に出力するように、スイッチ45を制御する。   On the other hand, when the external device and the connection transmission path correspond to the uncompressed audio signal having the same Ch number as that of the audio stream # 1, it can be output to the outside without being re-encoded. . Therefore, in such a case, the controller 34 determines YES in the process of step S18, and in step S20, the switch 34 outputs the processed data of step S17 to the outside as an uncompressed audio signal. 45 is controlled.

詳細には、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号は、スイッチ45に直接供給される(図37中3つの入力端のうちの下端に供給される)他、オーディオエンコーダ41に供給される。そして、オーディオエンコーダ41に供給された非圧縮オーディオ信号は、そこでエンコード処理(再符号化処理)が施され、その結果得られる再符号化オーディオストリームが、スイッチ45に供給される(図37中3つの入力端のうちの中央端に供給される)。   Specifically, the processed data in step S17, that is, the digital uncompressed audio signal is directly supplied to the switch 45 (supplied to the lower end of the three input ends in FIG. 37), and the audio encoder. 41. Then, the uncompressed audio signal supplied to the audio encoder 41 is subjected to an encoding process (re-encoding process) there, and a re-encoded audio stream obtained as a result is supplied to the switch 45 (3 in FIG. 37). Supplied to the middle of the two inputs).

従って、このステップS20の処理では、スイッチ45の入力が、図37中3つの入力端のうちの下端に切り替えられ、その下端に供給されたデジタルの非圧縮オーディオ信号が、スイッチ45の出力端から出力され、デジタルオーディオ信号インターフェース112を介して外部に出力されるのである。換言すると、再符号化オーディオストリームの外部出力が禁止されるのである。   Therefore, in the process of step S20, the input of the switch 45 is switched to the lower end of the three input ends in FIG. 37, and the digital uncompressed audio signal supplied to the lower end is supplied from the output end of the switch 45. It is output to the outside via the digital audio signal interface 112. In other words, external output of the re-encoded audio stream is prohibited.

なお、ステップS17の処理済のデータ、即ち、デジタルの非圧縮オーディオ信号はまた、D/A変換部43にも供給され、そこでアナログの非圧縮オーディオ信号に変換された後、アナログオーディオ信号インターフェース111を介して外部に出力される。   The processed data in step S17, that is, the digital uncompressed audio signal is also supplied to the D / A converter 43, where it is converted into an analog uncompressed audio signal, and then the analog audio signal interface 111. Is output to the outside.

このようにして、ステップS15,S19,S20のうちの何れかの処理が実行されると、即ち、PlayListにおける再生するPlayItemに従って、上述した各種形態のうちの何れかの形態でオーディオ信号が外部に出力されると、処理はステップS21に進む。   In this way, when any one of steps S15, S19, and S20 is executed, that is, according to the PlayItem to be reproduced in the PlayList, the audio signal is externally output in any of the various forms described above. If output, the process proceeds to step S21.

ステップS21において、コントローラ34は、次のPlayItemがあるか否かを判定する。   In step S21, the controller 34 determines whether there is a next PlayItem.

次のPlayItemが存在する場合には、ステップS21の処理でYESであると判定されて、処理はステップS12に戻され、それ以降の処理が繰り返される。   If there is a next PlayItem, it is determined YES in the process of step S21, the process returns to step S12, and the subsequent processes are repeated.

これに対して、次のPlayItemが存在しない場合には、ステップS21の処理でNOであると判定されて、処理はステップS22に進む。   On the other hand, if there is no next PlayItem, it is determined as NO in the process of step S21, and the process proceeds to step S22.

ステップS22において、コントローラ34は、再生終了であるか否かを判定する。   In step S22, the controller 34 determines whether or not the reproduction is finished.

ステップS22において、再生終了であると判定された場合、オーディオ信号再生処理は終了となる。   If it is determined in step S22 that the playback has ended, the audio signal playback process ends.

これに対して、ステップS22において、まだ再生終了ではないと判定された場合、処理はステップS10に戻され、それ以降の処理が繰り返される。   On the other hand, if it is determined in step S22 that the reproduction is not yet finished, the process returns to step S10, and the subsequent processes are repeated.

以上、ビデオ信号の再生とは独立して、オーディオ信号再生処理について説明してきた。ただし、上述したように、オーディオ信号再生処理は、ビデオ信号の再生処理と並行して実行される場合が多々ある。従って、このような場合には、そのビデオ信号の再生処理結果も、オーディオ信号再生処理の判断処理等に取り入れることも可能である。   The audio signal reproduction process has been described above independently of the video signal reproduction. However, as described above, the audio signal reproduction process is often executed in parallel with the video signal reproduction process. Therefore, in such a case, the result of the video signal reproduction process can also be incorporated into the determination process of the audio signal reproduction process.

例えば、上述した図38のステップS14の判定処理として、即ち、サウンドデータとして合成される合成用音声データが存在するか否かの判定処理として、ポップアップメニュー用など予めメモリにロードされるインタラクティブグラフィックスストリーム等のデータを解析し、その解析結果に基づいて判定を行う、といった判定処理を採用できる。   For example, as the determination processing in step S14 in FIG. 38 described above, that is, as determination processing for determining whether or not there is audio data for synthesis to be synthesized as sound data, interactive graphics loaded in the memory in advance such as for a pop-up menu A determination process of analyzing data such as a stream and performing a determination based on the analysis result can be employed.

即ち、インタラクティブグラフィックスストリームには、画面上に表示されるボタン等の部品数や、機器外部からのコマンドの受信によりユーザがそのボタンを選択する操作等を行ったと判断される場合に合成処理されるオーディオデータの識別情報等が含まれている。従って、コントローラ34は、AVデコーダ部33等を制御して、このインタラクティブグラフィックストリームを解析することによって、ボタン等、音声の合成処理を伴う可能性のあるグラフィックスデータの有無を確認し、該当するグラフィックスデータが有る場合にはさらにオーディオデータの識別情報等からそのグラフィックスデータがオーディオデータと結び付けられているか否かを確認することができ、そのインタラクティブグラフィックスストリームの対応する再生区間において音声の合成処理が行われる可能性があるか否かについて判断することができる。   In other words, the interactive graphics stream is combined when the number of parts such as buttons displayed on the screen or a user's operation for selecting the button is determined by receiving a command from the outside of the device. Audio data identification information and the like. Therefore, the controller 34 controls the AV decoder unit 33 and the like to analyze the interactive graphic stream, thereby confirming the presence or absence of graphics data that may be accompanied by a voice synthesis process, such as a button. If there is graphics data, it can be further confirmed from the identification information of the audio data whether the graphics data is linked with the audio data, and the audio data is reproduced in the corresponding playback section of the interactive graphics stream. It is possible to determine whether or not there is a possibility that the synthesis process is performed.

このように、コントローラ34は、スイッチ45を適切に制御し、また、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1)を解析することで、再符号化の効果の有無(上述した例ではオーディオエンコーダ41からの再符号化オーディオストリームの出力有無)を厳密に判定し、再符号化オーディオストリームの出力を極力避けるようにする。これにより、無用な再符号化オーディオストリームが出力されることがなく、コンテンツの音質を最大限保つことができる、という効果を奏することが可能になる。   As described above, the controller 34 appropriately controls the switch 45, and analyzes the encoded audio stream to be reproduced (audio stream # 1 in the above-described example), thereby determining whether or not there is a re-encoding effect (described above). In this example, whether or not a re-encoded audio stream is output from the audio encoder 41) is strictly determined, and output of the re-encoded audio stream is avoided as much as possible. As a result, an unnecessary re-encoded audio stream is not output, and the effect that the sound quality of the content can be maintained to the maximum can be achieved.

以下、この効果についてさらに詳しく説明する。   Hereinafter, this effect will be described in more detail.

即ち、本出願人により既に出願されている特願2006−147981等に開示されている再生装置においては、スイッチ45は存在せず、音声の合成処理が実際に行われるのか否かに関わらず、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1に相当)に合成するデータの存在を示すフラグが立っている場合(上述した図38の例では、ステップS11の処理でYESであると判定された場合に相当)、必ず再符号化処理(上述した図38の例では、ステップS19の処理に相当)が行われていた。このため、音声の合成処理が実際には行われていないにも関わらず、再符号化オーディオストリームが必ず出力されてしまい、その結果、再生される音声の音質が無用に劣化してしまっていた。   That is, in the playback device disclosed in Japanese Patent Application No. 2006-147981 already filed by the present applicant, the switch 45 does not exist, and whether or not the speech synthesis process is actually performed, When the flag indicating the presence of data to be synthesized is set in the encoded audio stream to be reproduced (corresponding to audio stream # 1 in the above example) (YES in the process of step S11 in the example of FIG. 38 described above). In other words, the re-encoding process (corresponding to the process of step S19 in the example of FIG. 38 described above) is always performed. For this reason, the re-encoded audio stream is always output even though the voice synthesis process is not actually performed, and as a result, the sound quality of the reproduced voice is unnecessarily degraded. .

また、上述したフラグが立っている場合、主要音声データ、即ち、再生対象の符号化オーディオストリーム(上述した例ではオーディオストリーム#1に相当)のCh数(チャンネル数)に関わらず再符号化が行われていた。このため、例えば2チャンネルステレオ音声の符号化オーディオストリームがデコードされ、その結果得られる非圧縮オーディオ信号に対して合成処理が行われた場合であっても再符号化が行われるので、外部との接続インターフェース(例えばS/PDIF)が2チャンネルの非圧縮音声データの伝送に対応している場合にも無用な再符号化が行われてしまい、その結果、音質が劣化するばかりか、再符号化オーディオストリームのCh数がソースと一致していなければ外部デコーダにおいて正しい音場が生成されなかった。   When the above flag is set, re-encoding is performed regardless of the number of channels (number of channels) of the main audio data, that is, the encoded audio stream to be reproduced (corresponding to audio stream # 1 in the above example). It was done. For this reason, for example, an encoded audio stream of 2-channel stereo sound is decoded, and re-encoding is performed even when synthesis processing is performed on the resulting uncompressed audio signal. Even if the connection interface (eg S / PDIF) supports transmission of 2-channel uncompressed audio data, unnecessary re-encoding is performed, resulting in degraded audio quality and re-encoding. If the Ch number of the audio stream does not match the source, the correct sound field was not generated in the external decoder.

そこで、本実施の形態の再生装置20は、再生対象の符号化オーディオストリーム(例えば上述した例ではオーディオストリーム#1)を再生する際(オーディオ単体の生成のみならず、ビデオ信号の再生との並行再生も含む)、音声の合成処理に関してユーザに設定を開放し、この設定内容と、再生対象の符号化オーディオストリームから得られる情報とに基づいて、音声の合成処理が実際に行われるか否かを厳密に判定するようにした(例えば図38のステップS12乃至S16の処理参照)。そして、本発明が適用される再生装置は、音声の合成処理が実際に行われたときにのみ、再符号化オーディオストリームの外部出力を許可し(例えば図38のステップS19の処理参照)、それ以外の場合には、再符号化オーディオストリームの外部出力を禁止し、元の符号化オーディオストリーム(オーディオストリーム#1)等を外部に出力するようにした(例えば図38のステップS15等の処理参照)   Therefore, the playback device 20 of the present embodiment plays back the encoded audio stream to be played back (for example, the audio stream # 1 in the above example) (in parallel with the playback of the video signal as well as the generation of the audio alone). Whether or not speech synthesis processing is actually performed based on the setting contents and information obtained from the encoded audio stream to be played back. Is strictly determined (see, for example, steps S12 to S16 in FIG. 38). The playback apparatus to which the present invention is applied permits the external output of the re-encoded audio stream only when the speech synthesis process is actually performed (see, for example, the process of step S19 in FIG. 38). In other cases, external output of the re-encoded audio stream is prohibited, and the original encoded audio stream (audio stream # 1) and the like are output to the outside (see, for example, step S15 in FIG. 38, for example). )

このような本発明が適用される再生装置20の構成をより一般化して表現すると、例えば次のようになる。   A more generalized representation of the configuration of the playback apparatus 20 to which the present invention is applied is as follows, for example.

即ち、例えば、本発明が適用される再生装置は、符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、その符号化オーディオストリームに対して復号処理を施す復号手段と、復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、合成手段により合成用データが合成された非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段とを備えており、さらに、再生対象の符号化オーディオストリームと、これとの合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの出力を許可し、それ以外の第2の場合、再符号化オーディオストリームの出力を禁止する制御手段を備えるように構成することができる。   That is, for example, a playback apparatus to which the present invention is applied includes a playback data acquisition unit that acquires playback data including an encoded audio stream, a decoding unit that performs a decoding process on the encoded audio stream, and a decoding unit. The uncompressed audio signal obtained as a result of the decoding process is combined with synthesis means for synthesizing data, which is data to be synthesized with the uncompressed audio signal, and the uncompressed audio signal synthesized with the synthesis data by the synthesis means Re-encoding means for performing re-encoding processing, and further, there is an encoded audio stream to be reproduced and data for synthesis with this, and the user permits or instructs the synthesis In the first case, the output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding means is permitted, and otherwise In the second case, it may be configured to include a control means for prohibiting the output of the re-encoded audio stream.

かかる特徴的構成を有する本発明が適用される再生装置は、特願2006−147981等に開示されている再生装置等と比較して、より一段と高い精度で音声の合成処理がなされないことを検知することができ、このような検知をした場合には、再符号化オーディオストリームを出力せずに、例えば媒体に記録されている符号化オーディオストリーム(上述した例ではオーディオストリーム#1)をそのまま出力することもできるため、無用な音質の劣化を防止することができるようになる。   A playback apparatus to which the present invention having such a characteristic configuration is applied detects that speech synthesis processing is not performed with higher accuracy than the playback apparatus disclosed in Japanese Patent Application No. 2006-147981. When such detection is performed, for example, the encoded audio stream recorded on the medium (audio stream # 1 in the above example) is output as it is without outputting the re-encoded audio stream. Therefore, unnecessary sound quality deterioration can be prevented.

さらに、本実施の形態の再生装置20は、音声の合成処理が行われる場合であっても、外部機器との接続伝送路及び外部機器が、再生対象の符号化オーディオストリームと同じだけのCh数の非圧縮オーディオ信号の伝送や受信に対応していると判断したときには、音声の合成処理後の非圧縮オーディオ信号を、再符号化処理せずにそのまま出力することができる(例えば図38のステップS18YES,S20参照)ので、その結果、無用な音質の劣化を防ぐことができるようになる。   Furthermore, the playback device 20 according to the present embodiment has the same number of channels as the number of channels that are connected to the external device and the external device are the same as the encoded audio stream to be played back, even when speech synthesis processing is performed. When it is determined that the transmission and reception of the uncompressed audio signal is supported, the uncompressed audio signal after the speech synthesis process can be output as it is without being re-encoded (for example, step of FIG. 38). As a result, unnecessary deterioration of sound quality can be prevented.

即ち、より一般表現化された本発明が適用される再生装置についていえば、上述した制御手段は、さらに、再生対象の符号化オーディオストリームが有するチャンネル数(Ch数)を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器がそのチャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合には、再符号化オーディオストリームの出力を禁止することができる。即ち、この場合には合成手段により合成用データが合成された非圧縮オーディオ信号がそのまま外部に出力され、その結果、無用な音質の劣化を防ぐことができるようになる。   That is, regarding the playback apparatus to which the present invention expressed in more general terms is applied, the control means described above further determines the number of channels (number of channels) included in the encoded audio stream to be played back, and Even in the third case, in the third case where the externally connected transmission path and the external device support transmission or reception of the uncompressed audio signal of the number of channels, the output of the re-encoded audio stream is Can be banned. That is, in this case, the uncompressed audio signal obtained by synthesizing the synthesis data by the synthesizing means is output to the outside as it is, and as a result, unnecessary deterioration in sound quality can be prevented.

さらにまた、コントローラ34は、スイッチ45を制御することで、次のような処理を実行することができる。   Furthermore, the controller 34 can execute the following processing by controlling the switch 45.

即ち、オーディオエンコーダ41からの再符号化オーディオストリームの外部出力の禁止をしない場合であっても、コントローラ34は、AVデコーダ部33から出力された非圧縮オーディオ信号のうちの、音声の合成処理が実際に行われた部分(例えばAccess Unit単位)だけを再符号化オーディオストリームに置き換えて外部へ出力させ、それ以外の部分を非圧縮オーディオ信号のまま外部へ出力させるようにすることもできる。   In other words, even when the external output of the re-encoded audio stream from the audio encoder 41 is not prohibited, the controller 34 performs the speech synthesis process of the uncompressed audio signal output from the AV decoder unit 33. Only the part actually performed (for example, Access Unit unit) can be replaced with a re-encoded audio stream and output to the outside, and the other part can be output to the outside as an uncompressed audio signal.

具体的には例えば、再生データ取得部31によって、図39に示されるような符号化オーディオストリーム201が再生対象のオーディオストリーム#1として取得されたとする。ここで、図39において、AUk(kは0乃至10の整数値)は、Access Unitを示している。そこで、図39または後述する図40の説明においては、Access Unitを、他のものと区別すべく、適宜AUkと称する。   Specifically, for example, it is assumed that the encoded audio stream 201 as shown in FIG. 39 is acquired as the audio stream # 1 to be reproduced by the reproduction data acquisition unit 31. Here, in FIG. 39, AUk (k is an integer value of 0 to 10) indicates an Access Unit. Therefore, in the description of FIG. 39 or FIG. 40 described later, the Access Unit is appropriately referred to as AUk so as to be distinguished from other units.

この符号化オーディオストリーム201に対しては、ミキシング処理部102または97において音声の合成処理が施されることになるが、その全ての部分に対して音声の合成処置が施されずに、ここでは、AU3乃至AU7の区間211に対してのみ音声の合成処理が施されるとする。   The encoded audio stream 201 is subjected to speech synthesis processing in the mixing processing unit 102 or 97. However, the speech synthesis processing is not performed on all the portions, and here, Suppose that speech synthesis processing is performed only for the section 211 of AU3 to AU7.

この場合、コントローラ34は、ミキシング処理部102,97の処理をAccess Unit単位で監視する。換言すると、符号化オーディオストリーム201が1stオーディオデコーダ75−1によって非圧縮オーディオ信号に変換された後、かかる非圧縮オーディオ信号のうちのどの区間(例えばAccess Unit単位)において音声の合成処理が実際に施されたのかを示す情報が、ミキシング処理部102,97からコントローラ34に伝達される。   In this case, the controller 34 monitors the processing of the mixing processing units 102 and 97 for each Access Unit. In other words, after the encoded audio stream 201 is converted into an uncompressed audio signal by the 1st audio decoder 75-1, the speech synthesis process is actually performed in any section (for example, Access Unit) of the uncompressed audio signal. Information indicating whether it has been applied is transmitted from the mixing processing units 102 and 97 to the controller 34.

これにより、図39の例でいえば、コントローラ34は、この情報に基づいて、音声の合成処理が実際に行われた区間は、AU3乃至AU7の区間211であることを認識できるようになる。   Accordingly, in the example of FIG. 39, the controller 34 can recognize that the section where the speech synthesis process is actually performed is the section 211 of AU3 to AU7 based on this information.

従って、コントローラ34は、かかる認識結果に基づいてスイッチ45の切り替えを適切に制御することで、図40に示されるような符号化オーディオストリーム202を外部に出力できるようになる。具体的には、コントローラ34は、スイッチ45を適宜切り替えることで、音声の合成処理が実際には行われていないAU0乃至AU2の区間については、スイッチ101から提供された符号化オーディオストリーム(オーディオストリーム#1)における区間220を外部に出力し、音声の合成処理が実際に行われたAU3乃至AU7の区間については、オーディオエンコーダ41からの再符号化オーディオストリームにおける区間221を外部に出力し、そして、音声の合成処理が実際には行われていないAU8乃至AU10の区間については、スイッチ101から提供された符号化オーディオストリーム(オーディオストリーム#1)における区間222を外部に出力することができる。   Therefore, the controller 34 can output the encoded audio stream 202 as shown in FIG. 40 by appropriately controlling the switching of the switch 45 based on the recognition result. Specifically, the controller 34 appropriately switches the switch 45 so that an encoded audio stream (audio stream) provided from the switch 101 is provided for a section from AU0 to AU2 where speech synthesis processing is not actually performed. The section 220 in # 1) is output to the outside, and the section 221 in the re-encoded audio stream from the audio encoder 41 is output to the outside for the sections from AU3 to AU7 in which speech synthesis processing is actually performed. As for the section from AU8 to AU10 in which speech synthesis processing is not actually performed, the section 222 in the encoded audio stream (audio stream # 1) provided from the switch 101 can be output to the outside.

次に、図41および図42を参照して、再生装置20において再生可能なデータが記録された記録媒体21の製造方法について、記録媒体21がディスク状の記録媒体だった場合を例として説明する。   Next, with reference to FIG. 41 and FIG. 42, a method for manufacturing the recording medium 21 on which data that can be reproduced by the reproducing apparatus 20 is recorded will be described by taking the case where the recording medium 21 is a disc-shaped recording medium as an example. .

即ち、図41に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製作される。 That is, as shown in FIG. 41, a master disc made of glass or the like is prepared, and a recording material made of photoresist or the like is applied thereon. As a result, a recording master is produced.

そして、図42に示すように、ソフト製作処理部において、符号化装置(ビデオエンコーダ)で符号化された、再生装置20において再生可能な形式のビデオデータが、一時バッファに記憶され、オーディオエンコーダで符号化されたオーディオデータが、一時バッファに記憶されるとともに、更に、データエンコーダで符号化された、ストリーム以外のデータ(例えば、Indexes、Playlist、PlayItemなど)が一時バッファに記憶される。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリーム以外のデータは、多重化器(MPX)で同期信号と共に多重化され、誤り訂正符号回路(ECC)でエラー訂正用のコードが付加される。そして、変調回路(MOD)で所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに一旦記録され、再生装置20において再生可能な記録媒体21に記録されるソフトウェアが製作される。   Then, as shown in FIG. 42, video data in a format that can be played back by the playback device 20 and encoded by the encoding device (video encoder) is stored in a temporary buffer in the software production processing unit, and is recorded by the audio encoder. The encoded audio data is stored in the temporary buffer, and data other than the stream (for example, Indexes, Playlist, PlayItem, etc.) encoded by the data encoder is further stored in the temporary buffer. Video data, audio data, and data other than the stream stored in each buffer are multiplexed together with a synchronization signal by a multiplexer (MPX), and an error correction code is added by an error correction code circuit (ECC). Is done. Then, predetermined modulation is applied by a modulation circuit (MOD), and software that is once recorded on a magnetic tape or the like according to a predetermined format and recorded on a recording medium 21 that can be played back by the playback device 20 is manufactured.

このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべきフォーマットの信号が生成される。そして、図41に示すように、この記録信号に対応して、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。   This software is edited (premastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. As shown in FIG. 41, the laser beam is modulated in response to the recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.

その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された原盤に、例えば電鋳等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。   Then, this master is developed and pits appear on the master. The master plate thus prepared is subjected to a process such as electroforming to produce a metal master plate in which pits on the glass master plate are transferred. A metal stamper is further produced from this metal master, and this is used as a molding die.

この成形用金型に、例えばインジェクションなどによりPMMA(アクリル)またはPC(ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に2P(紫外線硬化樹脂)などを塗布した後、紫外線を照射して硬化させる。これにより、金属スタンパ上のピットを、樹脂よりなるレプリカ上に転写することができる。   A material such as PMMA (acrylic) or PC (polycarbonate) is injected into this molding die by, for example, injection and fixed. Alternatively, 2P (ultraviolet curable resin) or the like is applied on the metal stamper and then cured by irradiation with ultraviolet rays. Thereby, the pits on the metal stamper can be transferred onto the replica made of resin.

このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなどにより形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートにより形成される。   A reflective film is formed on the replica thus generated by vapor deposition or sputtering. Alternatively, a reflective film is formed on the generated replica by spin coating.

その後、このディスクに対して内外径の加工が施され、2枚のディスクを張り合わせるなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられて、カートリッジに挿入される。このようにして再生装置20によって再生可能なデータが記録された記録媒体21が完成する。   Thereafter, the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed. Further, a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 21 on which data reproducible by the reproducing apparatus 20 is recorded is completed.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウェアにより実行させることもできる。この場合、上述した処理は、図43に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図43において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   43, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT and LCD, an output unit 507 including a speaker, a storage unit 508 including a hard disk, a modem, a terminal adapter, and the like. A communicator 509 is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is connected to the input / output interface 505 as necessary, and a removable medium 521 made up of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークやプログラム格納媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a program storage medium.

このプログラム格納媒体は、図43に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 43, this program storage medium is configured only by a package medium including a removable medium 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. Rather, it is provided with a ROM 502 in which a program is recorded and a hard disk including a storage unit 508 provided to the user in a state of being preinstalled in the apparatus main body.

なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.

また、ドライブ510は、装着されたリムーバブルメディア521に記録されたデータを読み出すことができるのみならず、装着されたリムーバブルメディア521にデータを記録することができる。そして、パーソナルコンピュータ500が、図42を用いて説明したソフト製作処理部と同様の機能を有する(例えば、CPU501を用いて、ソフト製作処理部と同様の機能を実現するためのプログラムを実行する)ことが可能であるのは言うまでもない。   Further, the drive 510 can read data recorded on the attached removable medium 521 and can record data on the attached removable medium 521. The personal computer 500 has the same function as the software production processing unit described with reference to FIG. 42 (for example, the CPU 501 is used to execute a program for realizing the same function as the software production processing unit). It goes without saying that it is possible.

すなわち、パーソナルコンピュータ500は、図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、CPU501の処理により生成するか、または、外部の装置で生成された図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、通信部509またはドライブ510に装着されたリムーバブルメディア521を介して取得することができる。そして、パーソナルコンピュータ500は、生成または取得された図42を用いて説明したソフト制作処理部により生成されたデータと同様のデータを、ドライブ510に装着されたリムーバブルメディア521に記録する記録装置としての機能を実現することができる。   That is, the personal computer 500 generates data similar to the data generated by the software production processing unit described with reference to FIG. 42 by the processing of the CPU 501 or uses FIG. 42 generated by an external device. Data similar to the data generated by the software production processing unit described above can be acquired via the communication unit 509 or the removable medium 521 attached to the drive 510. Then, the personal computer 500 serves as a recording device that records data similar to the data generated or acquired by the software production processing unit described with reference to FIG. 42 on the removable medium 521 attached to the drive 510. Function can be realized.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

従来の音声合成を説明する図である。It is a figure explaining the conventional speech synthesis. 本発明を適用した再生装置について説明するための図である。It is a figure for demonstrating the reproducing | regenerating apparatus to which this invention is applied. 本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォーマットの例を示す図である。It is a figure which shows the example of the application format on the recording medium with which the reproducing | regenerating apparatus to which this invention is applied is mounted | worn. インデックステーブルとナビゲーションオブジェクトについて説明する図である。It is a figure explaining an index table and a navigation object. メインパスとサブパスの構造を説明する図である。It is a figure explaining the structure of a main path and a sub path. メインパスとサブパスの例を説明する図である。It is a figure explaining the example of a main path and a sub path. メインパスとサブパスの別の例を説明する図である。It is a figure explaining another example of a main path and a sub path. 再生装置で再生可能なデータのデータ構成例を説明する図である。It is a figure explaining the data structural example of the data which can be reproduced | regenerated with a reproducing | regenerating apparatus. index.bdmvのシンタクスを示す図である。It is a figure which shows the syntax of index.bdmv. indexesシンタクスを示す図である。It is a figure which shows indexes syntax. indexesシンタクスを示す図である。It is a figure which shows indexes syntax. indexesシンタクスを示す図である。It is a figure which shows indexes syntax. PlayListファイルのデータ構造ついて説明するための図である。It is a figure for demonstrating the data structure of a PlayList file. AppInfoPlayList()のシンタクスについて説明するための図である。It is a figure for demonstrating the syntax of AppInfoPlayList (). AppInfoPlayList()のシンタクスについて説明するための図である。It is a figure for demonstrating the syntax of AppInfoPlayList (). PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). PlayList()のシンタクスを示す図である。It is a figure which shows the syntax of PlayList (). SubPath()のシンタクスを示す図である。It is a figure which shows the syntax of SubPath (). SubPath_typeを説明する図である。It is a figure explaining SubPath_type. SubPlayItem(i)のシンタクスを示す図である。It is a figure which shows the syntax of SubPlayItem (i). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). PlayItem()のシンタクスを示す図である。It is a figure which shows the syntax of PlayItem (). STN_table()のシンタクスを示す図である。It is a figure which shows the syntax of STN_table (). stream_entry()のシンタクスを示す図である。It is a figure which shows the syntax of stream_entry (). stream_attribute()のシンタクスを示す図である。It is a figure which shows the syntax of stream_attribute (). stream_cording_typeを説明する図である。It is a figure explaining stream_cording_type. video_formatを説明する図である。It is a figure explaining video_format. frame_rateを説明する図である。It is a figure explaining frame_rate. aspect_ratioを説明する図である。It is a figure explaining aspect_ratio. audio_presentation_typeを説明する図である。It is a figure explaining audio_presentation_type. sampling_frequencyを説明する図である。It is a figure explaining sampling_frequency. Character codeを説明する図である。It is a figure explaining Character code. ユーザに提供する音声信号と字幕信号の関係を表すストリームナンバーテーブルの例を説明する図である。It is a figure explaining the example of the stream number table showing the relationship between the audio | voice signal provided to a user, and a caption signal. sound.bdmvのシンタクスを示す図である。It is a figure which shows the syntax of sound.bdmv. 本発明を適用した再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reproducing | regenerating apparatus to which this invention is applied. オーディオ信号再生処理を説明するためのフローチャートである。It is a flowchart for demonstrating an audio signal reproduction | regeneration process. 図37のコントローラの制御の別の例を説明する図である。It is a figure explaining another example of control of the controller of FIG. 図37のコントローラの制御の別の例を説明する図である。It is a figure explaining another example of control of the controller of FIG. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. 再生装置で再生可能なデータを記録した記録媒体の製造について説明するための図である。It is a figure for demonstrating manufacture of the recording medium which recorded the data which can be reproduce | regenerated with a reproducing | regenerating apparatus. パーソナルコンピュータの構成を示す図である。It is a figure which shows the structure of a personal computer.

符号の説明Explanation of symbols

20 再生装置, 31 再生データ取得部, 32 スイッチ, 33 AVデコーダ部, 34 コントローラ, 41 オーディオエンコーダ, 45 スイッチ, 51乃至54 バッファ, 55,56 PIDフィルタ, 57,58 スイッチ, 71 バックグラウンドデコーダ, 72 ビデオデコーダ, 73 プレゼンテーショングラフィックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコーダ, 76 Text-STコンポジション, 77 スイッチ, 91 バックグラウンドプレーン生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 96 ビデオデータ処理部, 97 ミキシング処理部, 101 スイッチ, 102 ミキシング処理部   20 playback device, 31 playback data acquisition unit, 32 switch, 33 AV decoder unit, 34 controller, 41 audio encoder, 45 switch, 51 to 54 buffer, 55, 56 PID filter, 57, 58 switch, 71 background decoder, 72 Video decoder, 73 presentation graphics decoder, 74 interactive graphics decoder, 75 audio decoder, 76 Text-ST composition, 77 switch, 91 background plane generation unit, 92 video plane generation unit, 93 presentation graphics plane generation unit, 94 interactive graphics plane generator, 95 buffer 96 video data processor, 97 Miki Ing unit, 101 switch, 102 mixing processor

Claims (9)

符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する制御手段と
を備える再生装置。
Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
Re-encoding means for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesis means;
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream And a control device for prohibiting output to the outside.
前記制御手段は、さらに、前記第2の場合、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する
請求項1に記載の再生装置。
The said control means further permits the output to the outside of the original encoded audio stream or the uncompressed audio signal synthesized with the synthesis data in the second case. Playback device.
前記制御手段は、さらに、再生対象の前記符号化オーディオストリームが有するチャンネル数を判別し、上述した第1の場合であっても、外部との接続伝送路および外部機器が、判別した前記チャンネル数の非圧縮オーディオ信号の伝送または受信に対応している第3の場合には、前記再符号化オーディオストリームの出力を禁止する
請求項1に記載の再生装置。
The control means further determines the number of channels included in the encoded audio stream to be reproduced, and even in the first case described above, the number of channels determined by the external connection transmission path and the external device is determined. The playback device according to claim 1, wherein in a third case corresponding to transmission or reception of an uncompressed audio signal, output of the re-encoded audio stream is prohibited.
前記制御手段は、さらに、前記第1の場合であって前記第3の場合、前記合成用データが合成された前記非圧縮オーディオ信号の外部への出力を許可する
請求項3に記載の再生装置。
4. The playback device according to claim 3, wherein the control unit further permits the output of the uncompressed audio signal synthesized with the synthesis data to the outside in the first case and the third case. 5. .
前記制御手段は、前記第1の場合であるか前記第2の場合であるかの判断処理の少なくとも一部として、前記再生データ取得手段により取得された前記再生データに含まれるインタラクティブグラフィックスストリームのデータの解析結果に基づいて、再生対象の前記符号化オーディオストリームに合成させるための前記合成用データが存在するか否かを判断する
請求項1に記載の再生装置。
The control means, as at least a part of the determination process of whether the first case or the second case, the interactive graphics stream included in the reproduction data acquired by the reproduction data acquisition means The playback device according to claim 1, wherein it is determined whether or not the synthesis data to be synthesized with the encoded audio stream to be reproduced exists based on a data analysis result.
前記制御手段は、さらに、前記合成手段により前記非圧縮オーディオ信号に対して前記合成用データが合成された合成部分を認識し、再生対象の前記符号化オーディオストリームのうちの、その合成部分に対応する部分については、前記再符号化オーディオストリームの形態で出力し、それ以外の部分については、元の前記符号化オーディオストリームのままの形態で出力する
請求項1に記載の再生装置。
The control means further recognizes a synthesized part in which the synthesis data is synthesized with the uncompressed audio signal by the synthesizing means, and corresponds to the synthesized part of the encoded audio stream to be reproduced. The playback apparatus according to claim 1, wherein a portion to be output is output in the form of the re-encoded audio stream, and the other portion is output in the form of the original encoded audio stream.
前記制御手段の制御に基づいて、前記第1の場合、外部への出力を、前記再符号化オーディオストリームに切り替え、前記第2の場合、外部への出力を、元の前記符号化オーディオストリーム、または、前記合成用データが合成された前記非圧縮オーディオ信号に切り替える切り替え手段
をさらに備える請求項1に記載の再生装置。
Based on the control of the control means, in the first case, the output to the outside is switched to the re-encoded audio stream, and in the second case, the output to the outside is switched to the original encoded audio stream, The playback apparatus according to claim 1, further comprising a switching unit that switches to the uncompressed audio signal synthesized with the synthesis data.
符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と
を備える再生装置の再生方法において、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップを含む再生方法。
Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
In a reproducing method of a reproducing apparatus, comprising: re-encoding means for performing re-encoding processing on the uncompressed audio signal synthesized with the synthesis data by the synthesizing means,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream A playback method that includes a step that prohibits output to the outside.
符号化オーディオストリームを含む再生データを取得する再生データ取得手段と、
前記再生データ取得手段により取得された前記符号化オーディオストリームに対して復号処理を施す復号手段と、
前記復号手段による前記復号処理の結果得られた非圧縮オーディオ信号に対して、それに合成するためのデータである合成用データを合成する合成手段と、
前記合成手段により前記合成用データが合成された前記非圧縮オーディオ信号に対して再符号化処理を施す再符号化手段と
を備える再生装置を制御するコンピュータに実行させるプログラムであって、
前記再生データ取得手段により取得された前記再生データに再生対象の前記符号化オーディオストリームが存在し、それに合成させるための前記合成用データが存在し、かつ、ユーザがその合成を許可または指示している第1の場合、前記再符号化手段による前記再符号化処理の結果得られる再符号化オーディオストリームの外部への出力を許可し、それ以外の第2の場合、その再符号化オーディオストリームの外部への出力を禁止する
ステップを含むプログラム。
Reproduction data acquisition means for acquiring reproduction data including an encoded audio stream;
Decoding means for performing a decoding process on the encoded audio stream acquired by the reproduction data acquisition means;
A synthesizing unit that synthesizes synthesis data, which is data to be synthesized with the uncompressed audio signal obtained as a result of the decoding process by the decoding unit;
A program that causes a computer that controls a playback device to include a re-encoding unit that performs a re-encoding process on the uncompressed audio signal combined with the synthesis data by the combining unit,
The encoded audio stream to be reproduced exists in the reproduction data acquired by the reproduction data acquisition means, the combining data to be combined with the encoded audio stream exists, and the user permits or instructs the combining In the first case, output of the re-encoded audio stream obtained as a result of the re-encoding process by the re-encoding unit is permitted, and in the second case other than that, the re-encoded audio stream A program that includes steps that prohibit external output.
JP2007028394A 2007-02-07 2007-02-07 Reproducing apparatus and method, and program Withdrawn JP2008193604A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007028394A JP2008193604A (en) 2007-02-07 2007-02-07 Reproducing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007028394A JP2008193604A (en) 2007-02-07 2007-02-07 Reproducing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2008193604A true JP2008193604A (en) 2008-08-21

Family

ID=39753233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007028394A Withdrawn JP2008193604A (en) 2007-02-07 2007-02-07 Reproducing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2008193604A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130140A (en) * 2008-11-26 2010-06-10 Panasonic Corp Apparatus and method of reproducing sound
JP7342520B2 (en) 2019-08-23 2023-09-12 ヤマハ株式会社 Video file processing methods and programs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130140A (en) * 2008-11-26 2010-06-10 Panasonic Corp Apparatus and method of reproducing sound
JP7342520B2 (en) 2019-08-23 2023-09-12 ヤマハ株式会社 Video file processing methods and programs

Similar Documents

Publication Publication Date Title
JP4770601B2 (en) Information processing apparatus, information processing method, program, and program storage medium
JP4081772B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP4923751B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP4968506B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP4251298B2 (en) REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, PROGRAM STORAGE MEDIUM, DATA, RECORDING MEDIUM, RECORDING DEVICE, AND RECORDING MEDIUM MANUFACTURING METHOD
JP4822081B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING MEDIUM
JP4849343B2 (en) Data generation method, recording apparatus and method, and program
JP2008193604A (en) Reproducing apparatus and method, and program
JP4720676B2 (en) Information processing apparatus and information processing method, data structure, recording medium manufacturing method, program, and program storage medium
JP4968562B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING METHOD
JP5234144B2 (en) REPRODUCTION DEVICE, RECORDING MEDIUM, AND MANUFACTURING METHOD THEREOF
JP4821456B2 (en) Information processing apparatus, information processing method, program, data structure, and recording medium
JP4900708B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM, AND PROGRAM STORAGE MEDIUM
JP5201428B2 (en) Data generation method, recording apparatus and method, and program
JP2008052836A (en) Information processing apparatus, information processing method, program, and program storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511