JP2010211917A - Device and method for reproducing information - Google Patents

Device and method for reproducing information Download PDF

Info

Publication number
JP2010211917A
JP2010211917A JP2010096079A JP2010096079A JP2010211917A JP 2010211917 A JP2010211917 A JP 2010211917A JP 2010096079 A JP2010096079 A JP 2010096079A JP 2010096079 A JP2010096079 A JP 2010096079A JP 2010211917 A JP2010211917 A JP 2010211917A
Authority
JP
Japan
Prior art keywords
information
video
advanced
title
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010096079A
Other languages
Japanese (ja)
Inventor
Hideo Ando
秀夫 安東
Yasushi Tsumagari
康史 津曲
Takeaki Kobayashi
丈朗 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010096079A priority Critical patent/JP2010211917A/en
Publication of JP2010211917A publication Critical patent/JP2010211917A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information reproducing device for reproducing information from an information storage medium, which provides a higher level of expression power and convenience for images. <P>SOLUTION: The information reproducing device includes an advanced content reproducing unit which reproduces advanced content. The advanced content reproducing unit reads main video data, sub-video data, and graphic data, synthesizes a main video plane, a sub-video plane, and a graphic plane corresponding to the respective data and outputs a video signal for displaying a main window, a sub-window and a graphic window corresponding to the respective planes. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、光ディスク等の情報記憶媒体に関する。また、本発明は、このような情報記憶媒体を再生する情報再生装置及び情報再生方法に関する。さらに、本発明は、このような情報記憶媒体を再生する情報再生プログラムに関する。   The present invention relates to an information storage medium such as an optical disk. The present invention also relates to an information reproducing apparatus and information reproducing method for reproducing such an information storage medium. Furthermore, the present invention relates to an information reproduction program for reproducing such an information storage medium.

近年、高画質・高機能を有するDVDビデオ・ディスク及びそのディスクを再生するビデオ・プレーヤの普及が進み、そのマルチチャネル・オーディオを再生する周辺機器等も選択の幅が広がってきている。そして、コンテンツ利用者(ユーザ)にとっては、ホームシアターを身近に実現でき、高画質・高音質の映画やアニメーション等を家庭で自在に視聴し得る環境が整えられつつある。また、コンテンツ提供者にとっても、映像などに対して多彩な表現を行なえるようになってきた。例えば、特許文献1には、ハイライト情報を伴うグラフィックユニットを独立したストリームとすることで、どんな形状のボタンでも設定し、柔軟かつ多彩なメニューを構築する技術が開示されている。   In recent years, DVD video discs having high image quality and high functions and video players for reproducing the discs have been widely used, and peripheral devices for reproducing the multi-channel audio have been selected. For content users (users), a home theater can be realized at hand, and an environment in which movies and animations with high image quality and high sound quality can be freely viewed at home is being prepared. In addition, content providers have been able to express a variety of expressions for video and the like. For example, Patent Document 1 discloses a technology for setting a button of any shape by using a graphic unit with highlight information as an independent stream, and building a flexible and diverse menu.

特開2004−343254号公報JP 2004-343254 A

ところで、現行のDVD-Video規格に対しては、コンテンツ供給者やコンテンツ利用者から、以下のような要望がある。   By the way, with respect to the current DVD-Video standard, there are the following requests from content suppliers and content users.

1.コンピュータ画面のように柔軟で多様な表現形式の実現
2.ネットワークを通じた各種アクションに対する柔軟な対応の実現
3.映像関連情報の加工容易性と加工後の情報の送信容易性の実現
しかしながら、従来の技術ではこのようなことを実現することができない。
1. 1. Realize flexible and diverse expression formats like computer screens. 2. Realize flexible response to various actions through the network. Realization of Ease of Processing of Image Related Information and Ease of Transmission of Information after Processing However, this cannot be realized by the conventional technology.

本発明の目的は、画像などに関してより高度な表現力と利便性を実現することが可能な情報記憶媒体を提供することにある。また、本発明の目的は、このような情報記憶媒体を再生することが可能な情報再生装置、情報再生方法、及び情報再生プログラムを提供することにある。   An object of the present invention is to provide an information storage medium capable of realizing a higher level of expressiveness and convenience with respect to images and the like. Another object of the present invention is to provide an information reproducing apparatus, an information reproducing method, and an information reproducing program capable of reproducing such an information storage medium.

この発明の情報記憶媒体、情報再生装置、情報再生方法、及び情報再生プログラムは、以下のように構成されている。   The information storage medium, information reproducing apparatus, information reproducing method, and information reproducing program of the present invention are configured as follows.

(1)この発明の情報記憶媒体は、ナビゲーションマネージャーを具備した情報記録再生装置もしくは情報再生装置により再生される情報記憶媒体であって、前記ナビゲーションマネージャー内に存在するプレイリストマネージャーにより、少なくとも一部が解読されるプレイリストが記録されている領域を備えている。   (1) An information storage medium according to the present invention is an information recording / reproducing apparatus provided with a navigation manager or an information storage medium reproduced by the information reproducing apparatus, and at least partly by a playlist manager existing in the navigation manager. Is provided with an area in which a play list to be decoded is recorded.

(2)この発明の情報再生装置は、アドバンスドコンテンツを再生するアドバンストコンテンツ再生部を具備している。   (2) The information reproducing apparatus of the present invention includes an advanced content reproducing unit that reproduces advanced content.

(3)この発明の情報再生方法は、ナビゲーションマネージャー及びAVレンダラーを含むアドバンストコンテンツ再生部と、情報記録再生部と、パーシステントストレージドライブ及びネットワーク制御部の少なくとも一方とを具備する情報再生装置に適用される情報再生方法であって、前記ナビゲーションマネージャーとAVレンダラーにより情報を再生する。   (3) The information reproduction method of the present invention is applied to an information reproduction apparatus including an advanced content reproduction unit including a navigation manager and an AV renderer, an information recording / reproduction unit, and a persistent storage drive and a network control unit. The information is reproduced by the navigation manager and the AV renderer.

(4)この発明の情報再生プログラムは、情報記録再生装置もしくは情報再生装置のプレイリストマネージャーにより、少なくとも一部が解読されるプレイリストに関する情報を含む。   (4) The information reproducing program of the present invention includes information on a playlist that is at least partially decoded by the information recording / reproducing apparatus or the playlist manager of the information reproducing apparatus.

本発明によれば、画像などに関してより高度な表現力と利便性を実現することが可能な情報記憶媒体を提供できる。また、本発明によれば、このような情報記憶媒体を再生することが可能な情報再生装置、情報再生方法、及び情報再生プログラムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the information storage medium which can implement | achieve more advanced expressive power and convenience regarding an image etc. can be provided. Further, according to the present invention, an information reproducing apparatus, an information reproducing method, and an information reproducing program capable of reproducing such an information storage medium can be provided.

技術的特徴とそれにより生じる効果の関係説明図その1である。FIG. 2 is a first diagram illustrating the relationship between technical features and the effects produced thereby. 技術的特徴とそれにより生じる効果の関係説明図その2である。FIG. 3 is a second explanatory diagram of the relationship between the technical features and the effects produced thereby. 技術的特徴とそれにより生じる効果の関係説明図その3である。FIG. 3 is a third explanatory diagram of the relationship between the technical features and the effects produced thereby. スタンダードコンテンツ内のデータ構造説明図である。It is data structure explanatory drawing in a standard content. カテゴリー1に対応した情報記憶媒体内に記録されるデータ構造例の説明図である。It is explanatory drawing of the example of a data structure recorded in the information storage medium corresponding to the category 1. FIG. カテゴリー2に対応した情報記憶媒体内に記録されるデータ構造例の説明図である。It is explanatory drawing of the example of a data structure recorded in the information storage medium corresponding to the category 2. FIG. カテゴリー3に対応した情報記憶媒体内に記録されるデータ構造例の説明図である。It is explanatory drawing of the example of a data structure recorded in the information storage medium corresponding to the category 3. FIG. アドバンストコンテンツ再生とスタンダードコンテンツ再生における遷移関係説明図である。It is a transition relation explanatory view in advanced content reproduction and standard content reproduction. 異なるカテゴリーに対応した情報記憶媒体に対する再生コンテンツの説明図である。It is explanatory drawing of the reproduction | regeneration content with respect to the information storage medium corresponding to a different category. オーディオのみの情報再生装置におけるスタートアップシーケンス説明図であるFIG. 10 is an explanatory diagram of a startup sequence in an audio-only information reproducing apparatus. アドバンストコンテンツとスタンダードコンテンツへのデータアクセスの違いの説明図である。It is explanatory drawing of the difference in the data access to an advanced content and a standard content. 各種オブジェクトの関係説明図である。It is a relation explanatory view of various objects. アドバンストコンテンツに関するファイル構造説明図である。It is file structure explanatory drawing regarding an advanced content. アドバンストコンテンツ内のデータ構造説明図である。It is data structure explanatory drawing in an advanced content. 情報記録再生装置を含むシステムの概略構成図である。It is a schematic block diagram of the system containing an information recording / reproducing apparatus. アドバンストコンテンツ再生部の構造説明図である。It is structure explanatory drawing of an advanced content reproduction part. 映像コンテンツの表示例その1の説明図である。It is explanatory drawing of the example 1 of a display of a video content. 映像コンテンツの表示例その2の説明図である。It is explanatory drawing of the example 2 of a display of a video content. 映像コンテンツの表示例その3の説明図である。It is explanatory drawing of the example 3 of a display of a video content. 図19のα点における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in (alpha) point of FIG. プレイリスト内の情報の概要説明図である。It is an outline explanatory view of information in a play list. プレイリスト内で記述される各種クリップエレメントと再生・使用対象となる各種オブジェクト間の関係説明図である。FIG. 5 is an explanatory diagram of a relationship between various clip elements described in a playlist and various objects to be reproduced / used. ファイル保存場所指定範囲の説明図である。It is explanatory drawing of a file storage location designation | designated range. ファイルへのパス指定記述方法の説明図である。It is explanatory drawing of the path designation description method to a file. プレイリストファイル内の情報説明図である。It is information explanatory drawing in a play list file. XMLタグとプレイリストタグ内の情報説明図である。It is information explanatory drawing in an XML tag and a playlist tag. プレイリスト内タイトル情報の内容説明図である。It is content explanatory drawing of the title information in a playlist. タイトルの属性情報、オブジェクトマッピングインフォメーション、プレイバックインフォメーションの内容説明図である。It is a content explanatory view of title attribute information, object mapping information, and playback information. アドバンストコンテンツ再生部内でのデータの流れ説明図である。FIG. 6 is an explanatory diagram of data flow in an advanced content playback unit. データアクセスマネージャー内の構造説明図である。It is structure explanatory drawing in a data access manager. データキャッシュ内の構造説明図である。It is structure explanatory drawing in a data cache. ナビゲーションマネージャー内の構造構造説明図である。It is structural structure explanatory drawing in a navigation manager. アドバンストコンテンツプレーヤーの状態遷移図である。It is a state transition diagram of an advanced content player. プレゼンテーションエンジン内の構造説明図である。It is structure explanatory drawing in a presentation engine. アドバンストアプリケーションプレゼンテーションエンジン内の構造説明図である。It is structure explanatory drawing in an advanced application presentation engine. プレゼンテーションエンジンにおけるグラフィックプロセスモデル説明図である。It is a graphic process model explanatory drawing in a presentation engine. アドバンストサブタイトルプレーヤー内の構造説明図である。It is structure explanatory drawing in an advanced subtitle player. フォトレンダリングシステム内の構造説明図である。It is structure explanatory drawing in a photo rendering system. セカンダリービデオプレーヤー内の構造説明図である。It is structure explanatory drawing in a secondary video player. プライマリービデオプレーヤー内の構造説明図である。It is structure explanatory drawing in a primary video player. デコーダーエンジン内の構造説明図である。It is structure explanatory drawing in a decoder engine. AVレンダラー内の構造説明図である。It is structure explanatory drawing in AV renderer. 表示画面上の各画面レイヤーの説明図である。It is explanatory drawing of each screen layer on a display screen. グラフィックプレイン内の表示モデルの説明図である。It is explanatory drawing of the display model in a graphic plane. 映像合成モデルの説明図である。It is explanatory drawing of an image | video synthetic | combination model. 音声ミキシングモデルの説明図である。It is explanatory drawing of an audio | voice mixing model. ネットワークサーバーとパーシステントストレージメモリーからのデータ供給モデルの説明図である。It is explanatory drawing of the data supply model from a network server and a persistent storage memory. ユーザー入力ハンドリングモデルの説明図である。It is explanatory drawing of a user input handling model. ユーザー入力イベントの一覧を示す図である。It is a figure which shows the list of user input events. プレイヤーパラメーターの一覧を示す図である。It is a figure which shows the list of player parameters. プロファイルパラメーターの一覧を示す図である。It is a figure which shows the list of profile parameters. プレゼンテーションパラメーターの一覧を示す図である。It is a figure which shows the list of presentation parameters. レイアウトパラメーターの一覧を示す図である。It is a figure which shows the list of layout parameters.

以下、図面を参照し、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<本実施形態のポイント>
1.アドバンストコンテンツ再生部ADVPL内がデータアクセスマネージャーDAMNG、ナビゲーションマネージャーNVMNG、データキャッシュDTCCH、プレゼンテーションエンジンPRSEN及びAVレンダラーAVRNDから構成される(図16参照)。
<Points of this embodiment>
1. The advanced content playback unit ADVPL includes a data access manager DAMNG, a navigation manager NVMNG, a data cache DTCCH, a presentation engine PRSEN, and an AV renderer AVRND (see FIG. 16).

2.ナビゲーションマネージャーNVMNGがプレイリストマネージャーPLMNG、パーサーPARSER及びアドバンストアプリケーションマネージャーADAMNGから構成される(図32参照)。   2. The navigation manager NVMNG includes a playlist manager PLMNG, a parser PARSER, and an advanced application manager ADAMNG (see FIG. 32).

3.ユーザーに表示される画面がメインビデオプレインMNVDPL、サブビデオプレインSBVDPL及びグラフィックプレインGRPHPLから合成される(図43参照)。   3. The screen displayed to the user is synthesized from the main video plane MNVDPL, the sub video plane SBVDPL, and the graphic plane GRPHPL (see FIG. 43).

現行DVD-Videoに対する次世代規格へのユーザー要求とそれに関係した現行DVD-Video規格を拡張した場合の問題点、及び本実施形態における解決方法とその結果得られる新たな効果について図1〜3を用いて説明を行う。現世代DVD-Video規格に対して、ユーザーが求める要求機能は大きく分けて下記の3種類存在する。   FIGS. 1 to 3 show the user requirements for the next-generation standard for the current DVD-Video, the problems when the current DVD-Video standard related thereto is expanded, the solution in the present embodiment, and the new effect obtained as a result. The explanation will be given. For the current generation DVD-Video standard, there are the following three types of user-requested functions.

1.柔軟かつ多様な表現力(現行パーソナルコンピュータの画面表示に近い表現力を確保する)
2.ネットワークアクション
3.映像関連情報の加工容易性と加工後情報の送信容易性
前記最初に示した “1.柔軟かつ多様な表現力”の要求機能を現行DVD-Video規格の小変更で実現しようとした場合、余りにもユーザー要求が多種多様なためカスタムメイド的な現行DVD-Video規格内のデータ構造の小変更だけでは対応しきれない。という問題点が生じる。前記問題点を解決するための技術的工夫内容として、本実施形態では汎用性を持ったPC世界での表現形式を採用するとともに新たにタイムラインの概念を導入する。その結果、本実施形態により下記の新たな効果を実現することができる。
1. Flexible and diverse expressive power (to ensure expressive power close to the screen display of current personal computers)
2. Network action Ease of processing video-related information and ease of sending post-processing information If you are trying to achieve the required function of “1. Flexible and diverse expressiveness” with a small change to the current DVD-Video standard, However, due to the wide variety of user requirements, it is not possible to cope with only small changes in the data structure within the current custom DVD-Video standard. The problem arises. As technical contrivances for solving the above problems, the present embodiment adopts a versatile representation format in the PC world and newly introduces the concept of a timeline. As a result, the following new effects can be realized by this embodiment.

1〕ユーザーアクションに対する柔軟かつ印象的なリアクションを行う
1.1)ボタン選択や実行指示した時にアニメーションやイメージが変化して応答する
1.2)ボタン選択や実行指示した時に音声応答する
1.3)ユーザーの実行指示に対してわざと遅れたタイミングで実行操作に入る
1.4)(PCのような)ヘルプの回答を音声で対応する
1.5)メニューなどの使い方ガイドを音声表示する
2〕映像自体やその再生方法に対する柔軟な切り替え処理を可能にする
2.1)オーディオの切り替え表示
2.2)サブタイトル(テロップ、字幕、静止画アイコンなど)の切り替え表示
2.3)ユーザー好みに合わせたサブタイトルの拡大表示が可能
2.4)ユーザーがサブタイトルをマーキングしたり、サブタイトル実行命令を出す
2.5)映画監督がコメントしている間、コメントに合わせて特定映像部分をマーキング
3〕再生中の映像にかぶせて別情報を同時に表示する
3.1)マルチウィンドによる複数映像を同時に表示する
3.2)マルチウィンドの各ウィンドサイズを自由に切り替えられる
3.3)事前の オーディオ・メッセージやユーザーによる アフレコ・オーディオ・メッセージを同時表示
3.4)スクロールするテキストを映像にかぶせて同時表示する
3.5)(選択ボタンなどの)グラフィックメニューや図形を柔軟な形で同時表示する
4〕見たい映像箇所への検索を容易にする
4.1)見たい場所をプルダウンメニューを使ってキーワード(テキスト)検索する
次に示した“2.ネットワークアクション”を必須とする要求機能に対しては、現行DVD-Video規格で規定されたデータ構造とネットワーク対応画面との間の帰りが大きすぎる。という問題点が生じる。前記問題点を解決するための技術的工夫内容としては、本実施形態ではネットワークの画面表現に実績のあるWEBのホームページ表示形式(XMLとスクリプト)をデータの管理構造の基本部分に採用し、映像の再生管理形式をそれに合わせている。その結果、本実施形態により下記の新たな効果を実現することができる。
1] Perform flexible and impressive reactions to user actions
1.1) When a button is selected or an execution instruction is given, the animation or image changes and responds
1.2) Make a voice response when selecting a button or instructing execution
1.3) Execution operation is started at a timing that is intentionally delayed from the user's execution instruction
1.4) Supporting help answers (like PC) by voice
1.5) Voice display of menus and other usage guides 2] Enables flexible switching processing for the video itself and its playback method
2.1) Audio switching display
2.2) Switching display of subtitles (telop, subtitles, still image icons, etc.)
2.3) Enlarged display of subtitles according to user preferences
2.4) The user marks the subtitle or issues a subtitle execution command
2.5) While the movie director is commenting, mark the specific video part according to the comment 3) Display different information at the same time over the video being played
3.1) Display multiple images by multi-window at the same time
3.2) Each window size of the multi-window can be switched freely
3.3) Simultaneous display of prior audio messages and post-record audio messages by users
3.4) Display the scrolling text on the video at the same time
3.5) Simultaneously display graphic menus and graphics (such as selection buttons) in a flexible manner 4] Facilitates searching for the desired video location
4.1) Search the keyword (text) using the pull-down menu for the place you want to see. For the following required functions that require "2. Network action", the data structure specified in the current DVD-Video standard Return to / from network screen is too large. The problem arises. As technical contents for solving the above-mentioned problems, in this embodiment, a web page display format (XML and script) having a proven track record in network screen representation is adopted as a basic part of the data management structure, and video The playback management format is adapted to it. As a result, the following new effects can be realized by this embodiment.

5〕ネットワークを用いたディスク上の情報更新機能を持たせる
5.1)オブジェクト情報の自動更新やディスク内管理情報の自動更新
5.2)メニューの使い方ガイドをネットワークダウンロード
5.3)ユーザーへの情報の自動更新告知
5.4)更新情報表示可否のユーザーへの告知
5.5)ユーザーによるマニュアル更新機能
6〕リアルタイムなオンライン処理
6.1)映像再生時にネットワークダウンロードされた音声情報に切り替え/ミキシング処理…映画監督の音声によるコメンタリ表示など
6.2)ネットワークショッピング
6.3)インタラクティブなリアルタイム映像変化
7〕ネットワークを通じた別ユーザーとの間のリアルタイムでの情報共有
7.1)離れた所に居る別ユーザーに対しても特定画面を同時に表示する
7.2)離れた所に居る別ユーザーと対戦ゲーム/対話ゲームをする
7.3)映像再生中にチャットに参加する
7.4)映像を再生しながら同時にファンクラブへのメッセージ送受信
最後に示した “3.映像関連情報の加工容易性と加工後情報の送信容易性”の要求機能を実現するためには、現行DVD-Video規格の小変更では複雑な編集処理を柔軟かつ容易に対応できない。また、複雑な編集処理を柔軟かつ容易に対応するためには、新たな管理データ構造が必要となる。という問題点が発生する。そのため本実施形態における前記問題点を解決するための技術的工夫内容として、XMLの採用と後述するタイムラインの概念を導入する。その結果、本実施形態により下記の新たな効果を実現することができる。
5] Provide a function for updating information on a disk using a network
5.1) Automatic update of object information and disk management information
5.2) Network usage guide for menu usage
5.3) Automatic update notification of information to users
5.4) Notification to users of whether or not to display updated information
5.5) User manual update function 6] Real-time online processing
6.1) Switching to audio information downloaded over the network during video playback / mixing processing ... Commentary display by movie director's audio, etc.
6.2) Network shopping
6.3) Interactive real-time video changes 7] Real-time information sharing with other users over the network
7.1) Display a specific screen at the same time for another user who is away
7.2) Play a game / dialogue game with another user at a distance
7.3) Participate in chat during video playback
7.4) Sending and receiving messages to the fan club at the same time as playing back the video To realize the required function of “3. Ease of processing video-related information and ease of sending post-processing information” as shown in the last section, Small changes to the Video standard do not allow complex editing processing to be handled flexibly and easily. In addition, a new management data structure is required to deal with complicated editing processing flexibly and easily. The problem occurs. For this reason, the adoption of XML and the concept of a timeline to be described later are introduced as technical contents for solving the above-described problems in the present embodiment. As a result, the following new effects can be realized by this embodiment.

8〕ユーザーによるプレイリストの選択・作成とその送信を行う
8.1)ユーザーによるプレイリストの選択または作成を行う
8.2)ユーザーが選択・作成したプレイリストを友人に送信する
8.3)ユーザーが選択・作成したプレイリストは特定ディスクのみで再生可能とする
8.4)映像のハイライトシーン集もユーザーが選択可能にする
8.5)映像中のお気に入り画面を取り込んだ スクラッフ゜フ゛ック を Web 上で公開
8.6)ユーザーが選択した マルチアンク゛ル/マルチシーン 中の アンク゛ル/シーン を記憶して再生
9〕映像に関する特定情報をユーザーが付加し、その結果をネットワーク送信する
9.1)映像に対するコメントをユーザーが付加し、ネットワーク上で別ユーザーと共有
9.2)映像中のキャラクターの顔に入力画像を貼り込む
9.3)ユーザー情報や映像を見た時の経験情報を映像情報上に貼り付ける
9.4)ユーザー情報をパレンタルロックに利用し、表示映像の自動制限を掛ける
10〕再生履歴情報の自動保存を行う
10.1)レジューム(再生中断)情報の自動保存機能を持つ
10.2)前回までのゲーム進行の途中情報の自動保存を行う
10.3)前回の再生環境(複数ユーザーとの対戦ゲーム環境など)の自動保存を行う
図4に示すように、ユーザー要求として、
1.柔軟かつ多様な表現力(PC画面に近付く柔軟性を持つ)
2.ネットワークアクション
3.映像関連情報の加工容易性と加工後情報の送信容易性
というユーザー要求に答える為、本実施形態ではPC世界での表現形式に合わせたXML、スクリプトとタイムラインの概念を導入し、前記のユーザー要求に対応する。
8] Select / create playlist by user and send it
8.1) The user selects or creates a playlist
8.2) Send playlists selected and created by users to friends
8.3) Playlists selected and created by the user can be played only on specific discs
8.4) Enable users to select video highlight scenes
8.5) Publish a scrapbook with a favorite screen in the video on the web
8.6) Memorize and play angel / scene in multi-angle / multi-scene selected by user 9] User adds specific information about video and sends the result to network
9.1) A user adds a comment to the video and shares it with another user on the network
9.2) Paste the input image into the character's face in the video
9.3) Paste user information and experience information when viewing video on video information
9.4) Use user information for parental lock and automatically limit display video 10] Automatically save playback history information
10.1) Has a function to automatically save resume information
10.2) Automatically save information during game progress up to the previous time
10.3) Automatically save the previous playback environment (such as a multiplayer game environment) As shown in Figure 4, as a user request,
1. Flexible and diverse expressive power (with flexibility to approach PC screen)
2. Network action In order to respond to user requirements for ease of processing video-related information and ease of transmission of post-processing information, this embodiment introduces the concept of XML, script and timeline according to the expression format in the PC world, Respond to requests.

しかしこの機能を持ったデータ構造の場合、従来のDVD-Videoとの互換性が損なわれるという問題点がある。   However, in the case of a data structure having this function, there is a problem that compatibility with the conventional DVD-Video is lost.

また、図4のユーザー要求を満たすためにはネットワーク接続が前提条件となり、非常に安価な情報再生装置をユーザーに提供することが難しくなる。その為本実施形態では、図4に対応したデータ構造を持つアドバンストコンテンツADVCTと、図4に示すユーザー要求は満足できないが、従来のDVD-Videoとの互換性を確保し、非常に安い(インターネット接続を前提としない)情報再生装置で再生できるコンテンツとして、スタンダードコンテンツSTDCTをサポートしたところに大きな特徴がある。   Further, in order to satisfy the user request of FIG. 4, network connection is a prerequisite, and it becomes difficult to provide a user with a very inexpensive information reproducing apparatus. Therefore, in this embodiment, although the advanced content ADVCT having a data structure corresponding to FIG. 4 and the user request shown in FIG. 4 cannot be satisfied, compatibility with the conventional DVD-Video is ensured and it is very cheap (Internet The main feature is that the standard content STDCT is supported as a content that can be played back by an information playback device (not premised on connection).

本実施形態では、スタンダードコンテンツSTDCTともう一方のコンテンツであるアドバンストコンテンツADVCTの2種類のタイプを定義できるようにしているところに本実施形態の特徴がある。   The present embodiment is characterized in that two types of standard content STDCT and advanced content ADVCT, which is the other content, can be defined.

本実施形態におけるスタンダードコンテンツSTDCTには、映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBと、そのエンハンストビデオオブジェクトデータの管理情報が記録されているナビゲーションデータIFOから成り立っている。前記スタンダードコンテンツSTDCTは、従来のDVD-Videoのデータ構造を純粋に拡張したデータ構造を持っている。   The standard content STDCT in the present embodiment is composed of enhanced video object data EVOB in which video information itself is recorded and navigation data IFO in which management information of the enhanced video object data is recorded. The standard content STDCT has a data structure that is a pure extension of the data structure of the conventional DVD-Video.

それに対してアドバンストコンテンツADVCTは、後述するような各種情報が記録される。   On the other hand, the advanced content ADVCT records various information as described later.

図4を用いてスタンダードコンテンツSTDCTのデータ内容を説明する。   The data content of the standard content STDCT will be described with reference to FIG.

スタンダードコンテンツSTDCTはメニュー画面を表すビデオマネージャーVMGと、映像データが記録されているスタンダードビデオタイトルセットSVTSが存在する。 Standard content STDCT includes a video manager VMG representing a menu screen and a standard video title set SVTS in which video data is recorded.

メニュー画面が記録されているビデオマネージャーVMGには、映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBとその管理情報が記録されているナビゲーションデータIFOが存在し、スタンダードビデオタイトルセットSVTS内には映像情報自体が記録されているエンハンストビデオオブジェクトデータEVOBと、その管理情報が記録されているナビゲーションデータIFOの組合せから成り立っている。   The video manager VMG in which the menu screen is recorded has enhanced video object data EVOB in which video information itself is recorded and navigation data IFO in which management information is recorded. The standard video title set SVTS has It consists of a combination of enhanced video object data EVOB in which video information itself is recorded and navigation data IFO in which management information is recorded.

スタンダードコンテンツSTDCTは従来のDVD-Videoで規定されているコンテンツの拡張構造を表している。特に従来のDVD-Videoに比べ映像に対する高解像度と音声に対する高音質と新たな機能が追加されている。スタンダードコンテンツSTDCTは、図4に示すように1個のビデオマネージャーVMGが記録されている領域と1以上のビデオタイトルセットVTSから記録されている領域からなっている。このビデオタイトルセットVTSが記録されている領域をスタンダードビデオタイトルセットSVTS又はVTSと呼ぶ。   Standard content STDCT represents an extended structure of content defined by conventional DVD-Video. Compared with the conventional DVD-Video, high resolution for video, high sound quality for audio and new functions are added. As shown in FIG. 4, the standard content STDCT includes an area in which one video manager VMG is recorded and an area in which one or more video title sets VTS are recorded. An area in which the video title set VTS is recorded is called a standard video title set SVTS or VTS.

従来のDVD-Videoと比べて本実施形態では以下の新たな機能が盛込まれている。   Compared to the conventional DVD-Video, the present embodiment incorporates the following new functions.

・映像情報に対する高解像度を保証するとともに、高解像度であり、かつ圧縮効率のよい圧縮方式を新たに採用する。 ・ While ensuring high resolution for video information, a new compression method with high resolution and high compression efficiency will be adopted.

・音声情報に対するチャネル数を上げるとともに高いサンプル周波数まで対応させる。又高音質を保証させ、高い圧縮効率を可能とする音声情報の圧縮方法を採用する。 • Increase the number of channels for audio information and support higher sampling frequencies. In addition, a voice information compression method that ensures high sound quality and enables high compression efficiency is adopted.

・副映像情報に対する機能拡張を行うとともに、新たにハイライト情報のストリームを定義する。 -Expand the function for sub-picture information and define a new stream of highlight information.

・ナビコマンドの機能拡張を行う。 ・ Expand the navigation command function.

・起動時に処理を行うファーストプレイドメイン、及びメニュー画像を管理するビデオマネージャードメイン、映像情報の再生時に処理を行うビデオタイトルセットドメインにおける従来存在していた特殊ないくつかの制限情報に対して制限情報を除去し、よりフレキシブルな表現を可能とする。 -Restriction information for some special restriction information that existed in the past in the first play domain that performs processing at startup, the video manager domain that manages menu images, and the video title set domain that performs processing during playback of video information To allow more flexible expression.

・各ドメイン間の遷移制限に対していくつかの制限を除去し、よりフレキシブルな表現環境定義する。 -Remove some restrictions on transition restrictions between domains and define a more flexible expression environment.

・途中で再生を中断した時の処理を表すレジウムシーケンス機能を新たに加え、中断後のユーザーの利便性を高める。 -Newly added a radium sequence function that represents the processing when playback is interrupted midway, improving the user's convenience after the interruption.

本実施形態においてスタンダードビデオタイトルセットSVTSは、基本的には上述したスタンダードコンテンツSTDCT上で使用される。しかし、このスタンダードビデオタイトルセットSVTSは後述するタイムマップTMAPを返して、アドバンストコンテンツADVCT内でも使うことが可能である。   In the present embodiment, the standard video title set SVTS is basically used on the standard content STDCT described above. However, the standard video title set SVTS can be used in the advanced content ADVCT by returning a time map TMAP described later.

上記スタンダードビデオタイトルセットSVTS内で使用されるオブジェクト情報であるエンハンストビデオオブジェクトデータEVOBはスタンダードコンテンツSTDCTに対する幾つかの特定の情報を持っている。その特定の情報は、例えばスタンダードコンテンツSTDCTで使用されるハイライトインフォメーションHLIやプレゼンテーションコントロールインフォメーションPCIは、本実施形態においてアドバンストコンテンツADVCT上では無視される。   The enhanced video object data EVOB, which is object information used in the standard video title set SVTS, has some specific information for the standard content STDCT. For example, highlight information HLI and presentation control information PCI used in the standard content STDCT are ignored on the advanced content ADVCT in this embodiment.

図4に示すスタンダードコンテンツSTDCTが情報記憶媒体内に記録される時のディレクトリ構造について説明を行う。本実施形態ではスタンダードコンテンツSTDCT及び後述するアドバンストコンテンツADVCTが共にHDDVD_TSディレクトリの中にまとめて記録される。上記HDDVD-TSディレクトリは情報記憶媒体のルートディレクトリの直下に配置される。例えばビデオマネージャーVMGやスタンダードビデオタイトルセットSVTSなどの後述するプライマリービデオセットPRMVSに関係する全てのファイルはこのディレクトリの中に含まれる。   A directory structure when the standard content STDCT shown in FIG. 4 is recorded in the information storage medium will be described. In this embodiment, both standard content STDCT and advanced content ADVCT described later are recorded together in the HDDVD_TS directory. The HDDVD-TS directory is arranged immediately below the root directory of the information storage medium. For example, all files related to a primary video set PRMVS (described later) such as the video manager VMG and the standard video title set SVTS are included in this directory.

図4に示すビデオマネージャーVMGの中身について説明を行う。上記ビデオマネージャーVMGは基本的に従来のDVD-Videoのメニュー画面及び制御情報が含まれる。上記説明したHDDVD_TSディレクトリの下にそれぞれコンポーネントファイルとして、ビデオマネージャーインフォメーションVMGI、情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBに関するエンハンストビデオオブジェクトデータEVOB、ビデオマネージャVMGのナビゲーションデータIFOのバックアップデータであるビデオマネージャーインフォメーションVMGI_BUPなどが別々に記録される。   The contents of the video manager VMG shown in FIG. 4 will be described. The video manager VMG basically includes a conventional DVD-Video menu screen and control information. Video that is backup data for video manager information VMGI, enhanced video object data EVOB for menu FP_PGCM_EVOB to be displayed first immediately after insertion of the information storage medium, navigation data IFO of video manager VMG, as component files under the HDDVD_TS directory described above Manager information VMGI_BUP etc. are recorded separately.

上記HDDVD_TSディレクトリ化において、ビデオマネージャーメニューに関するエンハンストビデオオブジェクトセットVMGM_EVOBSのサイズが1GB以上あるが、それらのデータは98以下のファイルにそれぞれ分割され記録される。   In the HDDVD_TS directory, the size of the enhanced video object set VMGM_EVOBS related to the video manager menu is 1 GB or more, but the data is divided and recorded in 98 or less files.

本実施形態において再生専用の情報記録媒体では、再生の利便性の為ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのそれぞれの全てのファイルは、連続した位置に配置される必要がある。それによりビデオマネージャーメニューに関するエンハンストビデオオブジェクトセットVMGM_EVOBSの情報が1箇所にまとまって記録されている為データのアクセス利便性、データの収集の利便性、表示速度の高速化を確保することができる。   In the present embodiment, in the reproduction-only information recording medium, all files of the enhanced video object set VMGM_EVOBS of the video manager menu need to be arranged at consecutive positions for the convenience of reproduction. As a result, the information of the enhanced video object set VMGM_EVOBS related to the video manager menu is recorded in one place, so that it is possible to ensure the convenience of data access, the convenience of data collection, and the increase in display speed.

本実施形態において、上記HDDVD_TSディレクトリの中にビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、それぞれコンポーネントファイルとして前記HDDVD_TSディレクトリ化に記録される。ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS及び、各タイトルのエンハンストビデオオブジェクトセットVTSTT_EVOBSのサイズは1GBを超えることを許容されるがそのデータは99以内のファイルに分割、記録される必要がある。その結果、各ファイルサイズは1GB以下に設定できる。これらのファイルはHDDVD_TSディレクトリ化に個々のコンポーネントファイルとして記録される。ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS及び各タイトルのエンハンストビデオオブジェクトセットVTSTT_EVOBSのファイルは、全てそれぞれ連続な位置に配置される必要がある。その結果上述したのと同様に1箇所にデータが記録されている為、データのアクセス利便性及び高速性とデータ処理の管理化が図れ、高速でユーザーに対するこれらの情報を表示することができる。   In this embodiment, video title set information VTSI and video title set information backup data VTSI_BUP are recorded as component files in the HDDVD_TS directory in the HDDVD_TS directory. The size of the enhanced video object set VTSM_EVOBS of the video title set menu and the enhanced video object set VTSTT_EVOBS of each title is allowed to exceed 1 GB, but the data needs to be divided into 99 or less files and recorded. As a result, each file size can be set to 1 GB or less. These files are recorded as individual component files in the HDDVD_TS directory. All the files of the enhanced video object set VTSM_EVOBS of the video title set menu and the enhanced video object set VTSTT_EVOBS of each title need to be arranged at consecutive positions. As a result, since data is recorded in one place as described above, data access convenience and high speed and management of data processing can be achieved, and this information can be displayed to the user at high speed.

ビデオタイトルセットVTSは映像タイトルの集合体を意味している。このビデオタイトルセットは、上記ビデオタイトルセットに関する制御情報であるビデオタイトルセットインフォメーションVTSI、ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBS、各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSおよびビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPから構成される。   The video title set VTS means a collection of video titles. This video title set includes video title set information VTSI that is control information related to the video title set, enhanced video object set VTSM_EVOBS of the video title set menu, enhanced video object set (video information itself) VTSTT_EVOBS of each title, and video title set information. Consists of backup data VTSI_BUP.

本実施形態においてビデオタイトルセットVTSに関して、以下のルールを適用させる。   In the present embodiment, the following rules are applied to the video title set VTS.

1)制御情報が記録されているビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、1GB以下のそれぞれ1個のファイル内に記録しなければいけない。   1) The video title set information VTSI in which the control information is recorded and the backup data VTSI_BUP of the video title set information must be recorded in one file of 1 GB or less.

2)ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSとビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSトはそれぞれ1個が1GB以下のサイズのファイルに分割して記録しなければいけない。その分割されたファイル数が1個の情報記憶媒体内には99ファイル以下にしなければならない。   2) The enhanced video object set VTSM_EVOBS in the video title set menu and the enhanced video object set (video information itself) VTSTT_EVOBS of each title in the video title set VTS must be divided and recorded in a file of 1 GB or less. I must. The number of divided files must be 99 files or less in one information storage medium.

3)ビデオタイトルセットインフォメーションVTSIと、ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSと、各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSと、ビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、上記記載した順番で配置されなければならない。   3) Video title set information VTSI, video title set menu enhanced video object set VTSM_EVOBS, each title enhanced video object set (video information itself) VTSTT_EVOBS, and video title set information backup data VTSI_BUP are in the order described above. Must be placed.

4)ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは1個の同一のECCブロック内に共存して記録してはいけない。すなわちビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUP は連続して記録されるが両者間の境界位置が同一のECCブロック内の中央に配置されることを禁止している。すなわち両者の境界部分が同一のECCブロック内に配置された場合、そのECCブロックが欠陥により再生できない場合、両方の情報が共に再生できないという問題が発生する。従ってビデオタイトルセットインフォメーションVTSI の終了位置でのECCブロック内での余った場所には、パディング情報を記録し、次のビデオタイトルセットインフォメーションのバックアップデータVTSI_BUP の先頭が次のECCブロックの先頭位置に来るようにし、互いに同一のECCブロック内に両方のデータが入ることを避けるところに本実施形態の特徴がある。それによりデータ再生の信頼性を大幅に向上させるだけでなくデータ再生時の再生処理を容易にする効果がある。   4) Video title set information VTSI and backup data VTSI_BUP of video title set information must not be recorded in the same ECC block. That is, the video title set information VTSI and the backup data VTSI_BUP of the video title set information are continuously recorded, but the boundary position between the two is prohibited from being arranged at the center in the same ECC block. That is, when the boundary portion between the two is arranged in the same ECC block, if the ECC block cannot be reproduced due to a defect, both information cannot be reproduced together. Therefore, padding information is recorded in the remaining place in the ECC block at the end position of the video title set information VTSI, and the head of the backup data VTSI_BUP of the next video title set information comes to the head position of the next ECC block. Thus, the present embodiment is characterized in that both data are prevented from entering the same ECC block. This not only greatly improves the reliability of data reproduction, but also has the effect of facilitating the reproduction process during data reproduction.

5)ビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSを構成している複数のファイルが情報記憶媒体上で連続した位置に配置されなければいけない。更に各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSを構成する複数のファイルも同様に連続した位置に配置されなければいけない。そのように連続した位置に配置されることにより再生時の光学ヘッドの1回の連続した再生により各情報を一度に再生することができる(光学ヘッドのジャンピング処理を不要とする)。それにより上記各種情報のデータ再生時の処理の容易性を確保できるとともに、データ再生から表示するまでの時間の短縮化を図ることができる。   5) A plurality of files constituting the enhanced video object set VTSM_EVOBS of the video title set menu must be arranged at consecutive positions on the information storage medium. In addition, a plurality of files constituting the enhanced video object set (video information itself) VTSTT_EVOBS of each title must be similarly arranged at consecutive positions. By arranging in such a continuous position, each information can be reproduced at a time by one continuous reproduction of the optical head at the time of reproduction (no jumping process of the optical head is required). As a result, it is possible to ensure the ease of processing of the various types of information during data reproduction, and to shorten the time from data reproduction to display.

6)ビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは、ビデオタイトルセットインフォメーションVTSIと完全に一致しなければならない。上記情報は完全に一致することにより万一管理情報であるビデオタイトルセットインフォメーションVTSIがエラーによる再生不可能になったとしても、前記のビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPの再生により、安定した映像情報の再生が可能となる。   6) The backup data VTSI_BUP of the video title set information must completely match the video title set information VTSI. Even if the video title set information VTSI, which is management information, cannot be played back due to an error because the above information is completely consistent, stable video information can be obtained by playing back the backup data VTSI_BUP of the video title set information. Can be played.

7)ボリューム空間上に記録されたビデオタイトルセットVTSに付与するビデオタイトルセットVTS番号は連続した番号が付与されなければならない。情報記憶媒体上に記録されたビデオタイトルセットVTSの配置位置を表す論理空間上のアドレスである論理ブロックナンバーLBNの若い順番にそれぞれのビデオタイトルセットVTSの番号が設定され、番号としては1〜511までの番号がつけられる。   7) The video title set VTS numbers assigned to the video title set VTS recorded in the volume space must be assigned consecutive numbers. The number of each video title set VTS is set in ascending order of the logical block number LBN which is an address on the logical space indicating the arrangement position of the video title set VTS recorded on the information storage medium. Numbers up to are given.

8)各ビデオタイトルセットVTSにおいて、ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSと、ビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSおよびビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPのそれぞれの情報の境界領域にはギャップ領域を持つことができる。すなわち前記説明した4種類の情報はそれぞれ異なるECCブロックに配置されることにより再生時のデータの信頼性と再生処理の容易性、処理の高速性が図られる。そのため各情報の最後のデータの記録位置が1個のECCブロックの中間で終わった場合には、余りの領域にパディング情報を入れ次の情報の先頭位置が次のECCブロックの先頭位置に一致するように本実施形態では工夫されている。前記ECCブロック内のパディング情報の部分を本実施形態ではギャップと表現する。   8) In each video title set VTS, the video title set information VTSI, the enhanced video object set VTSM_EVOBS of the video title set menu, the enhanced video object set (video information itself) VTSTT_EVOBS of the title in the video title set VTS, and the video title set information Each of the backup data VTSI_BUP information may have a gap area in the boundary area. That is, the above-described four types of information are arranged in different ECC blocks, so that the reliability of data at the time of reproduction, the ease of reproduction processing, and the high speed of processing are achieved. For this reason, when the last data recording position of each piece of information ends in the middle of one ECC block, padding information is inserted into the remaining area, and the start position of the next information matches the start position of the next ECC block. As described above, this embodiment is devised. The padding information portion in the ECC block is expressed as a gap in this embodiment.

9)各それぞれビデオタイトルセットメニューのエンハンストビデオオブジェクトセットVTSM_EVOBSにおいて、エンハンストビデオオブジェクトEVOBは連続して情報記憶媒体上に記憶されなければならない。それにより再生処理の利便性が向上する。   9) In each enhanced video object set VTSM_EVOBS of the respective video title set menu, the enhanced video object EVOB must be continuously stored on the information storage medium. Thereby, the convenience of the reproduction process is improved.

10)ビデオタイトルセットVTS内における各タイトルのエンハンストビデオオブジェクトセット(映像情報そのもの)VTSTT_EVOBSにおいて、各エンハンストビデオオブジェクトも情報記憶媒体上の連続した位置に記録されなければならない。それにより、情報再生の利便性と表示までに要する時間の短縮化を図ることができる。   10) In the enhanced video object set (video information itself) VTSTT_EVOBS of each title in the video title set VTS, each enhanced video object must also be recorded at a continuous position on the information storage medium. Thereby, the convenience of information reproduction and the time required for display can be shortened.

11)ビデオタイトルセットインフォメーションVTSIとビデオタイトルセットインフォメーションのバックアップデータVTSI_BUPは情報記憶媒体上のアドレス位置を表すロジカルブロックナンバーLSNの連続した番号で構成される連続した論理的な連続領域内にそれぞれ記録されなければならない。それにより、1回の連続再生(ジャンピング処理を含まない)により前記情報を読取ることができ再生処理の利便性、処理の高速化を図ることができる。   11) Video title set information VTSI and video title set information backup data VTSI_BUP are respectively recorded in continuous logical continuous areas composed of consecutive numbers of logical block numbers LSN indicating address positions on the information storage medium. There must be. Thereby, the information can be read by one continuous reproduction (not including the jumping process), and the convenience of the reproduction process and the speeding up of the process can be achieved.

ビデオマネージャーVMGはスタンダードビデオタイトルセットSVTSのコンテンツテーブルを表し、それは後述するHDDVD-Videoゾーンに記録されている。ビデオマネージャーVMGの構成要件は、ビデオマネージャーインフォメーションVMGIである制御情報、情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOB、ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBS、ビデオマネージャーインフォメーションVMGIである制御情報のバックアップデータVMGI_BUPとなっている。VMGIである制御情報は、各タイトルを再生する為に必要な正的な情報とユーザーオペレーションをサポートするための情報が記録されている。情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBは、メニューで表示される言語を選択する為に使用される。すなわち情報記憶媒体装着直後にユーザー自身で最適なメニュー言語を選択してもらうことにより、最も理解しやすい言語で各種のメニュー画面を表示することができる。ビデオマネージャーのメニューに関するエンハンストビデオオブジェクトVMGM_EVOBSは、ボリュームアクセスをサポートするメニューに使用されるエンハンストビデオオブジェクトの集まりになっている。すなわち、前記ユーザーが選定した各言語で表示されるメニュー画面(個々の言語毎に別々の情報として持っている画面)の情報がエンハンストビデオオブジェクトセットとして記録されている。   The video manager VMG represents the content table of the standard video title set SVTS, which is recorded in the HDDVD-Video zone described later. The configuration requirements of the video manager VMG are the control information that is the video manager information VMGI, the menu FP_PGCM_EVOB that is displayed immediately after the information storage medium is inserted, the enhanced video object set VMGM_EVOBS of the video manager menu, and the control information that is the video manager information VMGI. The data is VMGI_BUP. In the control information that is VMGI, correct information necessary for reproducing each title and information for supporting user operations are recorded. The menu FP_PGCM_EVOB that is displayed first immediately after the information storage medium is inserted is used to select a language displayed in the menu. That is, various menu screens can be displayed in a language that is most easily understood by having the user select an optimal menu language immediately after the information storage medium is mounted. The enhanced video object VMGM_EVOBS related to the menu of the video manager is a collection of enhanced video objects used for menus that support volume access. In other words, information of menu screens (screens having different information for each language) displayed in each language selected by the user is recorded as an enhanced video object set.

本実施形態において、ビデオマネージャーVMGに関しては以下のルールを適用する。   In the present embodiment, the following rules are applied to the video manager VMG.

1)1個のビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップファイルVMGI_BUPに関しては、1個のファイルが1GB以下になるように分割して情報記憶媒体内に記録する。   1) One video manager information VMGI and a backup file VMGI_BUP of video manager information are divided and recorded in an information storage medium so that one file is 1 GB or less.

2)情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBのエンハンストビデオオブジェクトEVOBに関しては、1個のファイルが1GB以下になるように分割して情報記憶媒体内に記録する。また、ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSも1個のファイルが1GB以下になるように分割して記録するとともに、前記ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSの1枚の情報記憶媒体内に記録されるファイル数は98ファイル以下に設定する。上記のように1ファイルのデータサイズを1GB以下に設定することによりバッファメモリの管理が容易になるとともに、データのアクセス性が向上する。   2) The enhanced video object EVOB of the menu FP_PGCM_EVOB that is displayed first immediately after the information storage medium is inserted is divided and recorded in the information storage medium so that one file is 1 GB or less. Also, the video manager menu enhanced video object set VMGM_EVOBS is divided and recorded so that one file is 1 GB or less, and is recorded in one information storage medium of the video manager menu enhanced video object set VMGM_EVOBS. The number of files to be set is set to 98 files or less. As described above, setting the data size of one file to 1 GB or less facilitates management of the buffer memory and improves data accessibility.

3)ビデオマネージャーインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSとビデオマネージャーインフォメーションのバックアップファイルVMGI_ BUPはこの順番で情報記憶媒体に記録する。   3) The video manager information VMGI, the menu FP_PGCM_EVOB to be displayed first immediately after the information storage medium is inserted, the enhanced video object set VMGM_EVOBS of the video manager menu, and the video manager information backup file VMGI_BUP are recorded in this order on the information storage medium.

4)ビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップファイルVMGI_BUPは同一のECCブロック内に記録してはならない。   4) The video manager information VMGI and the video manager information backup file VMGI_BUP must not be recorded in the same ECC block.

…ビデオマネージャーインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSはオプショナルな情報な為、情報記憶媒体に記録されないことがある。その場合にはビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップVMGI_BUPが連続されて順番に配列されることがある。この場合にビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップVMGI_BUPの境界位置が1個のECCブロックの中間に境界位置が来ないようにすることを上記の内容は意味している。基本的に情報記録媒体から情報を再生する場合には、ECCブロック単位に情報を再生する。そのため両者の境界位置が同一ECCブロック内に入っている場合に、再生情報のデータ処理の利便性が損なわれるだけでなく、境界部分のECCブロック内にエラー発生時に再生できない場合にはビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップVMGI_BUPが両方とも再生されないことがある。従って両者の境界部分をECCブロックの境界部分に合わせることにより再生時の処理の優位性を確保するとともに、どちらか一方のECCブロックのエラーが多くなり再生できない場合でも、残りのデータで情報を復活させ再生することができる。従って両者の境界面をECCブロック内の境界面に合わせることにより、ビデオマネージャーインフォメーションVMGIのデータ再生信頼性を向上することができる。   ... The video manager information VMGI, the menu FP_PGCM_EVOB to be displayed first immediately after insertion of the information storage medium, and the enhanced video object set VMGM_EVOBS of the video manager menu are optional information and may not be recorded on the information storage medium. In this case, the video manager information VMGI and the video manager information backup VMGI_BUP may be sequentially arranged in sequence. In this case, the above contents mean that the boundary position between the video manager information VMGI and the video manager information backup VMGI_BUP does not come in the middle of one ECC block. Basically, when information is reproduced from an information recording medium, information is reproduced in units of ECC blocks. Therefore, when the boundary position between the two is within the same ECC block, not only the convenience of data processing of the reproduction information is impaired, but also when the error cannot be reproduced in the ECC block at the boundary portion, the video manager information Both VMGI and Video Manager Information backup VMGI_BUP may not play. Therefore, by aligning the boundary between the two with the boundary of the ECC block, it ensures the superiority of processing during playback, and even if one of the ECC blocks has many errors and cannot be played back, the information is restored with the remaining data. Can be played. Therefore, the data reproduction reliability of the video manager information VMGI can be improved by matching the boundary surface between the two with the boundary surface in the ECC block.

5)メニュー情報を表すビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのデータは連続して記録しなければならない。前述したようにビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSのデータサイズは1GB以上超えることが許容されているが、1個のファイルサイズが1GB以下になるようにそのデータが複数のファイル内に分割記録するように本実施形態では規定されている。このそれぞれの分割された各ファイルが情報記憶媒体上に連続して記録されることを要求している。それにより1回の連続再生により、上記ビデオマネージャーメニューのエンハンストビデオオブジェクトセットを全て取込むことができ、再生制御の高信頼性とユーザー表示に向けての高速化を確保することができる。   5) The video manager menu enhanced video object set VMGM_EVOBS data representing the menu information must be recorded continuously. As described above, the data size of the enhanced video object set VMGM_EVOBS in the video manager menu is allowed to exceed 1 GB or more, but the data is divided and recorded in a plurality of files so that one file size is 1 GB or less. Thus, in this embodiment, it is defined. Each of the divided files is required to be continuously recorded on the information storage medium. Thereby, all the enhanced video object sets of the video manager menu can be captured by one continuous reproduction, and high reliability for reproduction control and high speed for user display can be ensured.

6)ビデオマネージャーインフォメーションのバックアップファイルVMGI_BUPの内容は、ビデオマネージャーインフォメーションVMGIの内容と完全に一致させる必要がある。   6) The contents of the video manager information backup file VMGI_BUP must be completely identical to the contents of the video manager information VMGI.

7)ビデオマネージャーインフォメーションVMGIと情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBと、ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSとビデオマネージャーインフォメーションのバックアップファイルVMGI_ BUP間の境界位置にギャップがあることを許容する。上記4)で説明したように、各データ間の情報をECCブロック単位にまとめて記録する場合、各データの最後の部分の位置とECCブロックの境界位置にズレが生じECCブロック内に余りの領域が発生することがある。この、余りの領域をギャップと呼び、このようにギャップ領域の存在を許容することにより上記各情報がECCブロック単位に記録することができる。それにより上述したように再生時の利便性とデータ再生時の信頼性を確保することができる。   7) Allow a gap in the boundary position between the video manager information VMGI and the menu FP_PGCM_EVOB to be displayed immediately after the information storage medium is inserted, the enhanced video object set VMGM_EVOBS of the video manager menu and the video manager information backup file VMGI_BUP. To do. As described in 4) above, when information between each piece of data is recorded in units of ECC blocks, a gap occurs between the position of the last part of each piece of data and the boundary position of the ECC block, and an extra area in the ECC block. May occur. This surplus area is called a gap, and by allowing the existence of the gap area in this way, the above information can be recorded in ECC block units. As a result, as described above, it is possible to ensure convenience during reproduction and reliability during data reproduction.

8)ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSにおいて各エンハンストビデオオブジェクトは連続して記録する必要がある。上述したようにビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSは、1GB以上超えることができそれぞれ1GB以下の情報を分割記録することができることを上述した。この場合、各分割されたファイルが情報記憶媒体上に連続して記録されることを上記内容は意味している。その結果ビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSを1度の再生でまとめて全部読取ることができ、再生処理の利便性とユーザーに表示するまでの時間の短縮化が図れる。   8) In the enhanced video object set VMGM_EVOBS in the video manager menu, each enhanced video object needs to be recorded continuously. As described above, it has been described above that the enhanced video object set VMGM_EVOBS of the video manager menu can exceed 1 GB and can separately record information of 1 GB or less. In this case, the above content means that each divided file is continuously recorded on the information storage medium. As a result, the enhanced video object set VMGM_EVOBS of the video manager menu can be read all at once in one playback, and the convenience of playback processing and the time until display to the user can be shortened.

9)情報記憶媒体挿入直後の最初に表示するメニューFP_PGCM_EVOBとビデオマネージャーメニューのエンハンストビデオオブジェクトセットVMGM_EVOBSが存在しない場合、ビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップファイルVMGI_ BUPは、互いに連続した論理セクタ番号で構成される連続領域内に配置される必要がある。それにより、ビデオマネージャーインフォメーションVMGIとビデオマネージャーインフォメーションのバックアップファイルVMGI_ BUPの再生・利便性が向上する。   9) When the menu FP_PGCM_EVOB to be displayed first immediately after insertion of the information storage medium and the enhanced video object set VMGM_EVOBS of the video manager menu do not exist, the video manager information VMGI and the backup file VMGI_BUP of the video manager information are logical sector numbers consecutive to each other. Must be arranged in a continuous area composed of This improves the playback and convenience of the video manager information VMGI and the video manager information backup file VMGI_BUP.

エンハンストビデオオブジェクトセットEVOBSは、エンハンストビデオオブジェクトデータEVOBの集合体で構成され、それらはビデオデータ、オーディオデータ、サブピクチャーデータなどのデータから構成される。本実施形態において、エンハンストビデオオブジェクトセットEVOBSに対して以下のルールが適用される。   The enhanced video object set EVOBS is composed of a collection of enhanced video object data EVOB, which is composed of data such as video data, audio data, and sub-picture data. In the present embodiment, the following rules are applied to the enhanced video object set EVOBS.

1)各エンハンストビデオオブジェクトデータEVOB、エンハンストビデオオブジェクトセットEVOBSは、連続ブロック又はインターリーブドブロック内に記録される。   1) Each enhanced video object data EVOB and enhanced video object set EVOBS are recorded in a continuous block or an interleaved block.

2)1個のエンハンストビデオオブジェクトセットEVOBSは1以上のエンハンストビデオオブジェクトデータEVOBから構成される。   2) One enhanced video object set EVOBS is composed of one or more enhanced video object data EVOB.

3)各エンハンストビデオオブジェクトデータEVOBに割り付けられるID番号EVOB_IDは、各エンハンストビデオオブジェクトデータEVOBが情報記憶媒体上に記録されているアドレスを示す論理セクタ番号LSNが小さい順にID番号が割り振られる。そして、最初の番号が1となり、順次インクリメントされる。   3) The ID number EVOB_ID assigned to each enhanced video object data EVOB is assigned an ID number in ascending order of the logical sector number LSN indicating the address at which each enhanced video object data EVOB is recorded on the information storage medium. Then, the first number becomes 1, and is sequentially incremented.

1個のエンハンストビデオオブジェクトデータEVOBは1以上のセルから構成される。各セルに設定されたID番号C_IDは1個のエンハンストビデオオブジェクトデータEVOB内において、各セルが情報記憶媒体に記録された場所を表す論理セクタ番号LSNの小さい順に最小1として順次インクリメントされた数字が前記ID番号として設定される。   One enhanced video object data EVOB is composed of one or more cells. The ID number C_ID set for each cell is a number that is sequentially incremented as a minimum of 1 in ascending order of the logical sector number LSN indicating the location where each cell is recorded on the information storage medium in one enhanced video object data EVOB. Set as the ID number.

4)エンハンストビデオオブジェクトセットEVOBS内における各セルは、エンハンストビデオオブジェクトデータEVOBに割り付けられるID番号EVOB_IDと、各セルに設定されたID番号C_IDにより個々に識別することができる。   4) Each cell in the enhanced video object set EVOBS can be individually identified by the ID number EVOB_ID assigned to the enhanced video object data EVOB and the ID number C_ID set in each cell.

本実施形態において情報記憶媒体に記録する映像情報及びその管理情報として、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTの2種類のコンテンツを設定する。アドバンストコンテンツADVCTを持たせることにより柔軟かつ多様な表現力と、ネットワークアクションの映像関連情報の加工容易性と加工後情報の送信容易性を確保したいというユーザー要求に応えるともに、同時にスタンダードコンテンツSTDCTを持たせることにより、従来のDVD-Videoとのデータの互換性を確保するとともにネットワーク接続を前提としない安形情報再生装置でも本実施形態の映像情報が再生できるようにしているところに大きな特徴がある。   In this embodiment, two types of content, advanced content ADVCT and standard content STDCT, are set as video information to be recorded on the information storage medium and its management information. By providing advanced content ADVCT, it is possible to meet the user's request to secure flexible and diverse expressive power, ease of processing of video-related information of network action and easy transmission of post-processing information, and at the same time has standard content STDCT As a result, the compatibility of data with the conventional DVD-Video is ensured and the video information of this embodiment can be played back even with a safe information playback device that does not assume network connection. .

図5〜図7に示すように各コンテンツが記録された情報記憶媒体として、図5〜図7に示すように3種類のカテゴリーを持つ情報記憶媒体を設定する。すなわち、図5に示すように、カテゴリー1に対応した情報記憶媒体内に記録されるデータとしては、スタンダードコンテンツSTDCTの情報のみが記録された媒体を設定する。このカテゴリー1に対応した情報記憶媒体は、ネットワーク接続を前提としない安形情報再生装置とネットワーク接続を前提とした高級情報再生装置のいずれでも再生することができる。   As shown in FIGS. 5 to 7, information storage media having three types of categories are set as shown in FIGS. That is, as shown in FIG. 5, as data recorded in the information storage medium corresponding to category 1, a medium on which only the information of standard content STDCT is recorded is set. The information storage medium corresponding to this category 1 can be reproduced by either a safe information reproducing apparatus not premised on network connection and a high-grade information reproducing apparatus premised on network connection.

カテゴリー2に対応した情報記録媒体内に記録されるデータとして、図6に示すようにアドバンストコンテンツADVCTのみが記録されている情報記憶媒体も設定することが可能となる。この場合にはネットワーク接続を前提とした高機能な情報再生装置のみに再生が可能となる。更に図7のように、同じ映像情報をアドバンストコンテンツADVCTとスタンダードコンテンツとSTDCTの両方の形態でそれぞれ記録するカテゴリー3に対応した情報記憶媒体を認めるところに本実施形態の大きな特徴がある。これによりカテゴリー3に対応した情報記憶媒体を用いると、ネットワーク接続機能を持つ高級な情報再生装置ではアドバンストコンテンツADVCTを再生することができるとともにネットワーク接続を前提としない安形情報再生装置では、スタンダードコンテンツSTDCTを再生することができるため、どのような機種にも最適なコンテンツをユーザーに表示(提供)することが可能となる。   As data recorded in the information recording medium corresponding to category 2, an information storage medium in which only the advanced content ADVCT is recorded can be set as shown in FIG. In this case, reproduction can be performed only by a high-function information reproducing apparatus premised on network connection. Further, as shown in FIG. 7, the present embodiment is characterized in that an information storage medium corresponding to category 3 for recording the same video information in the form of both advanced content ADVCT, standard content and STDCT is recognized. As a result, when an information storage medium compatible with category 3 is used, advanced content ADVCT can be played back by a high-grade information playback device having a network connection function, and standard content can be played back by a safe information playback device that does not require network connection. Since STDCT can be played back, it is possible to display (provide) the optimum content for any model to the user.

図5に示すカテゴリー1に対応した情報記憶媒体においては、メニュー画面を構成する1個のビデオマネージャーVMGと映像情報が管理される1以上のスタンダードビデオタイトルセットSVTSとから構成されるスタンダードコンテンツSTDCTが記録されている。   In the information storage medium corresponding to category 1 shown in FIG. 5, standard content STDCT composed of one video manager VMG constituting a menu screen and one or more standard video title sets SVTS for managing video information is included. It is recorded.

上記情報記憶媒体には、アドバンストコンテンツADVCTの情報は記録されていない。   Information on the advanced content ADVCT is not recorded on the information storage medium.

図6に示すカテゴリー2に対応した情報記憶媒体においては、アドバンストコンテンツADVCTのみが記録され、スタンダードコンテンツSTDCTは記録されない。   In the information storage medium corresponding to category 2 shown in FIG. 6, only the advanced content ADVCT is recorded, and the standard content STDCT is not recorded.

図7に示すカテゴリー3に対応した情報記憶媒体においては、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTが記録される。カテゴリー3に対応した情報記憶媒体内には、後述するプライマリービデオセットPRMVSが定義される。前記プライマリービデオセットPRMVS内において、情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMもメニューが表示されるビデオマネージャーメニュードメインVMGM_DOMも両方のドメインは、前記プライマリービデオセットPRMVS内には定義されない。しかし、前記プライマリービデオセットPRMVS以外の領域において、ファーストプレイドメインFP_DOMとビデオマネージャーメニュードメインVMGM_DOMは、前記カテゴリー3に対応した情報記憶媒体内に存在してもよい。更に情報再生装置において、前記ファーストプレイドメインFP_DOMあるいはビデオマネージャードメインVMGM_DOMへの遷移を支持するナビゲーションコマンドは無視しなければならない。情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMとビデオマネージャードメインVMGM_DOMは基本的にスタンダードコンテンツSTDCTにおけるメニュー操作の時に必要となる。しかし本実施形態では、図11もしくは、図8に示すようにアドバンスドコンテンツADVCTでメニュー処理を行い、必要に応じてスタンダードコンテンツSTDCT内の映像情報が記録されているスタンダードビデオタイトルセットSVTSを参照している。このように、情報記憶媒体挿入直後に表示されているメニューのファーストプレイドメインFP_DOMとビデオマネージャードメインVMGM_DOMへの遷移を禁止することで、常にアドバンストコンテンツADVCT上でのメニュー処理を確保でき、ユーザーへの混乱を避けることができる。という効果を持っている。前期カテゴリー3に対応した情報記憶媒体はスタンダードコンテンツSTDCTを含むが、この情報記憶媒体は図6で示したカテゴリー2に対応した情報記憶媒体のルールに従う。   In the information storage medium corresponding to category 3 shown in FIG. 7, advanced content ADVCT and standard content STDCT are recorded. In an information storage medium corresponding to category 3, a primary video set PRMVS described later is defined. In the primary video set PRMVS, both the first play domain FP_DOM corresponding to the screen displayed immediately after the information storage medium is inserted and the video manager menu domain VMGM_DOM corresponding to the menu are defined in the primary video set PRMVS. Not. However, in an area other than the primary video set PRMVS, the first play domain FP_DOM and the video manager menu domain VMGM_DOM may exist in an information storage medium corresponding to the category 3. Furthermore, in the information reproducing apparatus, the navigation command that supports the transition to the first play domain FP_DOM or the video manager domain VMGM_DOM must be ignored. The first play domain FP_DOM and the video manager domain VMGM_DOM corresponding to the screen to be displayed immediately after the information storage medium is inserted are basically required for menu operations in the standard content STDCT. However, in the present embodiment, as shown in FIG. 11 or FIG. 8, the menu processing is performed by the advanced content ADVCT, and the standard video title set SVTS in which the video information in the standard content STDCT is recorded is referred to as necessary. Yes. In this way, by prohibiting the transition of the menu displayed immediately after insertion of the information storage medium to the first play domain FP_DOM and the video manager domain VMGM_DOM, menu processing on the advanced content ADVCT can be secured at all times. Can avoid confusion. Has the effect. The information storage medium corresponding to the previous category 3 includes standard content STDCT, and this information storage medium follows the rules of the information storage medium corresponding to category 2 shown in FIG.

図7に示した、プライマリービデオセットPRMVSの内容について以下に示す。アドバンストコンテンツADVCT内におけるプライマリービデオセットPRMVSは、アドバンストビデオタイトルセットADVTSとスタンダードビデオタイトルセットSVTSと、ビデオマネージャーVMGにより構成される。これらのビデオタイトルセットは主にスタンダードコンテンツSTDCTに使われるが、基本的にはアドバンストビデオタイトルセットADVTSはアドバンストコンテンツADVCTにおいてのみ使われ、スタンダードビデオタイトルセットSVTSはアドバンストコンテンツADVCT内において使うこともできる。アドバンストコンテンツADVCT内において、プライマリービデオセットPRMVS内でのビデオマネージャーVMGにおいては存在してもよい。しかし、アドバンストコンテンツADVCTを使用している最中に、前述したビデオマネージャーメニュードメインVMGM_DOMやファーストプレイドメインFP_DOMへの遷移することは禁止されている。情報記憶媒体挿入直後に表示する画面に対応したファーストプレイドメインFP_DOMとビデオマネージャードメインVMGM_DOMは基本的にスタンダードコンテンツSTDCTにおけるメニュー操作の時に必要となる。しかし本実施形態では、図11もしくは、図8に示すようにアドバンスドコンテンツADVCTでメニュー処理を行い、必要に応じてスタンダードコンテンツSTDCT内の映像情報が記録されているスタンダードビデオタイトルセットSVTSを参照している。このように、情報記憶媒体挿入直後に表示されているメニューのファーストプレイドメインFP_DOMとビデオマネージャードメインVMGM_DOMへの遷移を禁止することで、常にアドバンストコンテンツADVCT上でのメニュー処理を確保でき、ユーザーへの混乱を避けることができる。という効果を持っている。前記プライマリービデオセットPRMVSのデータは、カテゴリー3に対応した情報記憶媒体内に記録される。記録されるデータ構造として前述したHVDVD_TSディレクトリ内に配置されるが、それに限らず前記プライマリービデオセットPRMVSはパーシステントストレージ内に記録されてもよい。   The contents of the primary video set PRMVS shown in FIG. 7 are shown below. The primary video set PRMVS in the advanced content ADVCT includes an advanced video title set ADVTS, a standard video title set SVTS, and a video manager VMG. These video title sets are mainly used for the standard content STDCT, but basically the advanced video title set ADVTS is used only in the advanced content ADVCT, and the standard video title set SVTS can also be used in the advanced content ADVCT. In the advanced content ADVCT, it may exist in the video manager VMG in the primary video set PRMVS. However, the transition to the video manager menu domain VMGM_DOM or the first play domain FP_DOM described above is prohibited while using the advanced content ADVCT. The first play domain FP_DOM and the video manager domain VMGM_DOM corresponding to the screen to be displayed immediately after the information storage medium is inserted are basically required for menu operations in the standard content STDCT. However, in the present embodiment, as shown in FIG. 11 or FIG. 8, the menu processing is performed by the advanced content ADVCT, and the standard video title set SVTS in which the video information in the standard content STDCT is recorded is referred to as necessary. Yes. In this way, by prohibiting the transition of the menu displayed immediately after insertion of the information storage medium to the first play domain FP_DOM and the video manager domain VMGM_DOM, menu processing on the advanced content ADVCT can be secured at all times. Can avoid confusion. Has the effect. Data of the primary video set PRMVS is recorded in an information storage medium corresponding to category 3. Although the data structure to be recorded is arranged in the above-described HVDVD_TS directory, the primary video set PRMVS may be recorded in the persistent storage.

少なくとも、前記プライマリービデオセットPRMVSと少なくとも1個のプレイリストPLLST(詳細は後述する)は、前記カテゴリー2又はカテゴリー3に対応した情報記憶媒体内に記録されなければならない。図6及び図7に記載されたアドバンストコンテンツADVCTに関係する他の情報は、前記情報記憶媒体に記録することもできるが他にネットワークを経由してサーバーから配信を受けることもできる。   At least the primary video set PRMVS and at least one playlist PLLST (details will be described later) must be recorded in an information storage medium corresponding to the category 2 or category 3. Other information related to the advanced content ADVCT described in FIGS. 6 and 7 can be recorded on the information storage medium, but can also be received from the server via the network.

図7を用い、情報記憶媒体内に記録されるアドバンストコンテンツADVCTとスタンダードコンテンツSTDCTの記録場所について説明を行う。以下に説明する部分において、アドバンストコンテンツADVCTのみの記録場所が設定されているものが図6に対応し、スタンダードコンテンツSTDCTのみの記録場所が設定されているものが図5に示すカテゴリー1に対応した情報記憶媒体になる。図7に示すように情報記憶媒体上に各コンテンツを記録する空間をボリュームスペースとして定義し前記ボリュームスペース内では全ての場所に論理セクタ番号LSNが付与されている。本実施形態において、ボリュームスペース内は以下の3つの領域から構成されている。   The recording locations of the advanced content ADVCT and standard content STDCT recorded in the information storage medium will be described with reference to FIG. In the portion described below, the recording location for the advanced content ADVCT only corresponds to FIG. 6, and the recording location for the standard content STDCT only corresponds to category 1 shown in FIG. It becomes an information storage medium. As shown in FIG. 7, a space for recording each content on the information storage medium is defined as a volume space, and logical sector numbers LSN are assigned to all locations in the volume space. In the present embodiment, the volume space is composed of the following three areas.

1)ボリュームとファイル構造が記載されている場所(ファイルシステム管理情報記録領域)
…この領域は図7には記載されていないがファイルシステムの管理情報を記録する領域が定義されている。本実施形態では、UDF(Uniform Disc Format)に準拠しファイルシステムが構築されている。上記領域はそのファイルシステムの管理情報が記録される領域を示している。
1) Location where the volume and file structure are written (file system management information recording area)
This area is not shown in FIG. 7, but an area for recording file system management information is defined. In the present embodiment, a file system is constructed in conformity with UDF (Uniform Disc Format). The area indicates an area where management information of the file system is recorded.

2)1個のHD_DVD-Videoゾーン
…上記の領域に図7に記載された本実施形態におけるデータが記録されている。この領域はアドバンストコンテンツADVCTを記録する領域とスタンダードコンテンツSTDCTが記録される領域から構成されている。
2) One HD_DVD-Video zone: The data in the present embodiment described in FIG. 7 is recorded in the above-mentioned area. This area is composed of an area for recording advanced content ADVCT and an area for recording standard content STDCT.

3)他のDVD関連情報記録領域
…本実施形態のHD_DVD-Videoで使用する以外のDVD関連の情報が記録される領域であり、例えばHD_DVDのビデオレコーディング規格に関係した情報や、現行DVD-Videoや現行DVD-Audioに関する情報をこの領域に記録することができる。
3) Other DVD-related information recording area: This is an area in which DVD-related information other than that used in HD_DVD-Video of this embodiment is recorded. For example, information related to the HD_DVD video recording standard or the current DVD-Video And information about the current DVD-Audio can be recorded in this area.

上記2番目に記載し、図7に記載されたHD_DVD-Video領域において、本実施形態では以下の規則を設定する。   The following rules are set in the present embodiment in the HD_DVD-Video area described second and described in FIG.

1)カテゴリー1とカテゴリー3に準拠した情報記録媒体では、スタンダードコンテンツSTDCTの記録領域内には1個のビデオマネージャーVMGの情報と1から1以上511以下のビデオタイトルセットVTSを記録することができる。カテゴリー2に対応した情報記憶媒体では前記スタンダードコンテンツSTDCTの記録領域を設定することはできない。   1) In an information recording medium compliant with category 1 and category 3, information of one video manager VMG and a video title set VTS from 1 to 511 can be recorded in the recording area of the standard content STDCT. . The information storage medium corresponding to category 2 cannot set the recording area for the standard content STDCT.

2)ビデオマネージャーVMGはカテゴリー1に対応した情報記憶媒体においてビデオマネージャーVMGは、HD_DVD-Video記録領域の中で最初の場所に記録しなければならない。   2) In the information storage medium corresponding to category 1, the video manager VMG must record the video manager VMG in the first place in the HD_DVD-Video recording area.

3)ビデオマネージャーVMGは2以上最大102個のファイルから構成されなければならない。   3) The video manager VMG must be composed of 2 or more and a maximum of 102 files.

4)アドバンストビデオタイトルセットADVTSを除く各ビデオタイトルセットVTSは、少なくとも3以上200以下のファイルから構成されなければならない。   4) Each video title set VTS excluding the advanced video title set ADVTS must be composed of at least 3 or more and 200 or less files.

5)アドバンストコンテンツADVCT記録領域は、アドバンストビデオタイトルセットADVTSからなるアドバンストコンテンツADVCTの情報が記録されたファイルから構成される。アドバンストコンテンツADVCT記録領域内で記録されるファイル数の最大数は512×2047個とする。   5) The advanced content ADVCT recording area includes a file in which information of the advanced content ADVCT including the advanced video title set ADVTS is recorded. The maximum number of files recorded in the advanced content ADVCT recording area is 512 × 2047.

6)アドバンストビデオタイトルセットADVTSは、3以上2999以下のファイルから構成されなければならない。   6) The advanced video title set ADVTS must be composed of 3 to 2999 files.

図8を用いアドバンストコンテンツADVCTの再生時とスタンダードコンテンツSTDCTの再生時における遷移関係の説明を行う。図7に示すカテゴリー3に対応した情報記憶媒体において、アドバンストコンテンツADVCTとスタンダードコンテンツSTDCTはそれぞれ独立に再生することが可能な構造になっている。インターネット接続を持った高級な情報再生装置にカテゴリー3に対応した情報記憶媒体を挿入すると、前記再生装置は初期状態INSTTの段階でアドバンストコンテンツADVCTの中に含まれるアドバンストナビゲーションADVNVを読みに行く。その後、アドバンストコンテンツ再生状態ADVPSへ遷移する。この処理状況は図6に示したカテゴリー2に対応した情報記憶媒体が挿入された場合にも同じ処理がなされる。図8のアドバンストコンテンツ再生状態ADVPSにおいて、マークアップMRKUPやスクリプトSCRPTに対応したコマンドMSCMDが実行されることにより再生状況がスタンダードコンテンツ再生状態STDPSへ遷移することができる。またスタンダードコンテンツ再生状態STDPSにおいては、スタンダードコンテンツSTDCT内に設定されたナビゲーションコマンド内のコマンドNCCMDが実行されることによりアドバンストコンテンツ再生状態ADVPSへ戻ることが可能となる。   The transition relationship between the advanced content ADVCT playback and the standard content STDCT playback will be described with reference to FIG. In the information storage medium corresponding to category 3 shown in FIG. 7, the advanced content ADVCT and the standard content STDCT can be reproduced independently. When an information storage medium corresponding to category 3 is inserted into a high-class information reproducing apparatus having an Internet connection, the reproducing apparatus reads the advanced navigation ADVNV included in the advanced content ADVCT in the initial state INSTT. Then, the advanced content playback state ADVPS is entered. This processing status is the same when an information storage medium corresponding to category 2 shown in FIG. 6 is inserted. In the advanced content playback state ADVPS of FIG. 8, the playback state can transition to the standard content playback state STDPS by executing a command MSCMD corresponding to the markup MRKUP or script SCRPT. In the standard content playback state STDPS, it is possible to return to the advanced content playback state ADVPS by executing the command NCCMD in the navigation command set in the standard content STDCT.

スタンダードコンテンツSTDCTにおいて現行のDVD-Videoと同様、例えば表示アングル番号や再生音声番号などシステム的に設定された情報が記録されているシステムパラメータが定義されているが、本実施形態においては、アドバンストコンテンツ再生状態ADVPSにおいてもアドバンストコンテンツADVCTから前記のシステムパラメータに設定するデータを再生、あるいは前記システムパラメータの値を変更することが可能となっている。それにより従来のDVD-Videoの再生との互換性を確保できる。アドバンストコンテンツ再生状態ADVPSとスタンダードコンテンツ再生状態STDPS間のどちらの方向の遷移が行われていても、本実施形態においては前記システムパラメータの設定値は遷移をされてもシステムパラメータの値の継続性が保たれる。   In the standard content STDCT, as in the current DVD-Video, for example, system parameters in which information set systematically such as a display angle number and a playback audio number is defined are defined. Even in the reproduction state ADVPS, it is possible to reproduce the data set in the system parameter from the advanced content ADVCT or change the value of the system parameter. This ensures compatibility with conventional DVD-Video playback. Regardless of the direction of the transition between the advanced content playback state ADVPS and the standard content playback state STDPS, in this embodiment, the system parameter setting value does not change even if the system parameter setting value is changed. Kept.

図7に示したカテゴリー3に対応した情報記憶媒体に対し、ユーザーの好みでアドバンストコンテンツADVCTとスタンダードコンテンツSTDCT間で任意の遷移を行った場合、このようにシステムパラメータの値に継続性を持つことにより、例えば表示言語が遷移間でも同じに保たれユーザーの再生時の利便性を確保することができる。   When an arbitrary transition is made between the advanced content ADVCT and the standard content STDCT for the information storage medium corresponding to category 3 shown in FIG. 7 according to the user's preference, the system parameter value should have continuity in this way. Thus, for example, the display language is kept the same between transitions, and the convenience of the user's playback can be ensured.

図5〜図7に示した3種類の情報記憶媒体を装着した時の本実施形態における再生装置の媒体識別処理方法について図9に示す。   FIG. 9 shows a medium identification processing method of the reproducing apparatus in this embodiment when the three types of information storage media shown in FIGS.

ネットワーク接続機能を持った高級な情報再生装置に情報記憶媒体を装着すると(ST4.1.1-1)情報再生装置はHD_DVDに対応した情報記憶媒体か否かを示す。(ST4.1.1-2)HD_DVDに対応した情報記憶媒体の場合には図13に示すルートディレクトリの直下にあるアドバンストコンテンツディレクトリADVCTの中に記録されているプレイリストファイルPLLSTを探しに行く。プレイリストファイルPLLSTが存在した場合には、前記情報記憶媒体はカテゴリー2もしくはカテゴリー3に対応していると判断する。もしプレイリストファイルPLLSTが存在しない場合には、スタンダードコンテンツSTDCT内のビデオマネージャーインフォメーションVMGI内に記録されているビデオマネージャーID番号VMGM_IDのチェックを行う。もし、カテゴリー1に対応した情報記憶媒体の場合にはビデオマネージャーID番号VMGM_IDが特定なデータとして記録されており、ビデオマネージャーカテゴリーVMG_CAT内の情報からカテゴリー1に対応したスタンダードコンテンツSTDCTのみが記録されていることを識別することができる。もし、装着された情報記憶媒体が図5〜図7に記載されたいずれのカテゴリーにも属さない情報記憶媒体の場合には各再生装置の対応処理に任せる。(ST4.1.1-7)
本実施形態では、映像の表示機能を持たず音声情報(オーディオ)のみを再生する再生装置も対応する。前記オーディオのみの情報再生装置におけるスタートアップシーケンスを図10に示す。
When an information storage medium is attached to a high-grade information reproducing apparatus having a network connection function (ST 4.1.1-1), the information reproducing apparatus indicates whether or not the information recording medium is compatible with HD_DVD. (ST 4.1.1-2) In the case of an information storage medium corresponding to HD_DVD, the search is made for the playlist file PLLST recorded in the advanced content directory ADVCT immediately below the root directory shown in FIG. If the playlist file PLLST exists, it is determined that the information storage medium corresponds to category 2 or category 3. If the playlist file PLLST does not exist, the video manager ID number VMGM_ID recorded in the video manager information VMGI in the standard content STDCT is checked. In the case of an information storage medium corresponding to category 1, the video manager ID number VMGM_ID is recorded as specific data, and only the standard content STDCT corresponding to category 1 is recorded from the information in the video manager category VMG_CAT. Can be identified. If the mounted information storage medium is an information storage medium that does not belong to any of the categories shown in FIGS. 5 to 7, the processing is handled by each playback device. (ST4.1.1-7)
In the present embodiment, a playback device that does not have a video display function and plays back only audio information (audio) is also supported. A startup sequence in the audio-only information reproducing apparatus is shown in FIG.

前記情報再生装置に情報記憶媒体を装着すると、まずHD_DVDに対応した情報記憶媒体か否かを判定する(ST4.1.2-1)。本実施形態におけるHD_DVDに対応した情報記憶媒体でない場合には、ST4.1.2-5に示すように情報再生装置に依存した処理方法に任せる。装着した情報記憶媒体が本実施形態のHD_DVDに対応した情報記憶媒体の場合には、再生装置はルートディレクトリの直下にあるアドバンストコンテンツディレクトリADVCTに記録されたプレイリストファイルPLLSTの有無を確認する。もし、プレイリストファイルPLLSTが存在した場合には音声のみの情報再生を行う再生装置として音声情報の再生を行う。この時にも前記情報再生装置は必ずプレイリストファイルPLLSTを経由し情報の再生を行う(ST4.1.2-4)。   When an information storage medium is attached to the information reproducing apparatus, it is first determined whether or not the information storage medium is compatible with HD_DVD (ST 4.1.2-1). If the information storage medium is not compatible with HD_DVD in the present embodiment, the processing method depends on the information reproducing apparatus as shown in ST 4.1.2-5. When the mounted information storage medium is an information storage medium compatible with HD_DVD of the present embodiment, the playback device checks whether there is a playlist file PLLST recorded in the advanced content directory ADVCT immediately below the root directory. If there is a playlist file PLLST, the audio information is reproduced as a reproduction device that reproduces only audio information. Also at this time, the information reproducing apparatus always reproduces information via the playlist file PLLST (ST 4.1.2-4).

図11を用い本実施形態におけるスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOBとアドバンストコンテンツADVCTのエンハンストビデオオブジェクトデータEVOBに対する管理方法の違い(コンテンツへのデータアクセスの違いなど)について説明を行う。   Differences in management methods (enhanced data access to content, etc.) between the enhanced video object data EVOB in the standard content STDCT and the enhanced video object data EVOB in the advanced content ADVCT in this embodiment will be described with reference to FIG.

本実施形態においてスタンダードコンテンツSTDCTでの管理情報であるスタンダードビデオタイトルセットインフォメーションSTVTSI上では、各エンハンストビデオオブジェクトデータEVOBへのアクセス情報として論理空間上のアドレス情報である論理セクタ番号LSNで指定されている。このように、アドレス情報で管理することにより、現行のDVD-Video規格との間の互換性を確保している。それに対し、アドバンストコンテンツADVCTにおけるエンハンストビデオオブジェクトデータEVOBの管理方法がアドレス情報ではなく、時間情報により管理しているところに大きな特徴がある。それにより、現行の録画再生が可能なビデオレコーディング規格との互換性を確保できるだけでなく編集の容易性を確保できる。すなわち、アドバンストコンテンツADVCT上での再生管理情報を表すプレイリストPLLSTでは、再生位置アドバンストビデオオブジェクトデータEVOB上の再生範囲を時間情報で設定している。本実施形態におけるアドバンストコンテンツADVCTにおいては、プレイリストPLLSTで指定された時間情報をタイムマップインフォメーションTMAPIによりアドレス情報に変換することができる。前記タイムマップインフォメーションTMAPIは指定された時間情報から情報記憶媒体上の論理アドレス位置を示す論理セクタ番号LSNに変換するための情報である。前記タイムマップインフォメーションTMAPIは前記プレイリストPLLSTとは別位置に記録されている。更にスタンダードコンテンツSTDCTのスタンダードビデオタイトルセットインフォメーションSTVTSIに対応するものとして、アドバンストコンテンツADVCTではアドバンストビデオタイトルセットインフォメーションADVTSIが存在する。このアドバンストビデオタイトルセットインフォメーションADVTSI内には各エンハンストビデオオブジェクトデータEVOBの個々の属性情報が記録されているエンハンストビデオオブジェクトインフォメーションEVOBI情報が記録されている。このエンハンストビデオオブジェクトインフォメーションEVOBI情報が属性情報の管理として個々のエンハンストビデオオブジェクトデータEVOBを参照かつ管理している。このアドバンストビデオオブジェクトインフォメーションEVOBI#3がスタンダードコンテーツSTDCT内のエンハンストビデオオブジェクトデータEVOBの属性を管理及び参照することによりアドバンストコンテンツADVCTの再生を管理するプレイリストPLLST内でスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOBの再生をも指定することができる。   In this embodiment, on the standard video title set information STVTSI, which is management information in the standard content STDCT, it is specified by the logical sector number LSN which is address information in the logical space as access information to each enhanced video object data EVOB. . In this way, compatibility with the current DVD-Video standard is ensured by managing the address information. On the other hand, the management method of the enhanced video object data EVOB in the advanced content ADVCT is characterized in that it is managed not by address information but by time information. As a result, compatibility with the current video recording standard capable of recording / playback can be ensured as well as easy editing. That is, in the playlist PLLST representing the playback management information on the advanced content ADVCT, the playback range on the playback position advanced video object data EVOB is set by time information. In the advanced content ADVCT in this embodiment, the time information specified by the playlist PLLST can be converted into address information by the time map information TMAPI. The time map information TMAPI is information for converting specified time information into a logical sector number LSN indicating a logical address position on the information storage medium. The time map information TMAPI is recorded at a different position from the playlist PLLST. Furthermore, advanced video title set information ADVTSI exists in advanced content ADVCT as corresponding to standard video title set information STVTSI of standard content STDCT. In this advanced video title set information ADVTSI, enhanced video object information EVOBI information in which individual attribute information of each enhanced video object data EVOB is recorded. This enhanced video object information EVOBI information refers to and manages individual enhanced video object data EVOB as management of attribute information. This advanced video object information EVOBI # 3 manages and references the attributes of the enhanced video object data EVOB in the standard content STDCT, thereby managing the playback of the advanced content ADVCT, and the enhanced video object in the standard content STDCT in the playlist PLLST. Data EVOB playback can also be specified.

上述したようにアドバンストコンテンツADVCTから、スタンダードコンテンツSTDCTの一部を利用できるようになっていることに本実施形態の特徴がある。   As described above, a feature of this embodiment is that a part of the standard content STDCT can be used from the advanced content ADVCT.

例えば図11に示すように、アドバンストコンテンツADVCT内のタイムマップインフォメーションTMAPI#3を利用し、アドバンストビデオタイトルセットインフォメーションADVTSI内のエンハンストビデオオブジェクトインフォメーションEVOBI#3が、スタンダードコンテンツSTDCT内のエンハンストビデオオブジェクデータEVOB#3を参照し、前記エンハンストビデオオブジェクトデータEVOB#3を再生できるようになっている。また図11に示すようにアドバンストコンテンツ内のエンハンストビデオオブジェクトインフォメーションEVOBI#3から参照されたエンハンストビデオオブジェクトデータEVOB#3は、スタンダードビデオタイトルセットインフォメーションSTVTSIからも参照可能である。このように本実施形態において同一のスタンダードコンテンツSTDCT内のエンハンストビデオオブジェクトデータEVOB#3が複数のところから参照可能とすることにより、兼用して利用でき情報記憶媒体上に記録するデータの効率・向上が行える。   For example, as shown in FIG. 11, using the time map information TMAPI # 3 in the advanced content ADVCT, the enhanced video object information EVOBI # 3 in the advanced video title set information ADVTSI is enhanced video object data EVOB in the standard content STDCT. With reference to # 3, the enhanced video object data EVOB # 3 can be reproduced. Further, as shown in FIG. 11, the enhanced video object data EVOB # 3 referred to from the enhanced video object information EVOBI # 3 in the advanced content can also be referred to from the standard video title set information STVTSI. As described above, in this embodiment, the enhanced video object data EVOB # 3 in the same standard content STDCT can be referred to from a plurality of places, so that the efficiency and improvement of data recorded on the information storage medium can be used together Can be done.

しかしながら、このエンハンストビデオオブジェクトデータEVOB#3の中にはハイライトインフォメーションHLIや、プレゼンテーションコントロールインフォメーションPCIなどの情報が含まれているが、これらの情報に対しては、アドバンストコンテンツADVCTはサポートせず、これらハイライトインフォメーションHLIやプレゼンテーションコントロールインフォメーションPCIで規定された情報はプレイリストPLLSTに基づくアドバンストコンテンツADVCT再生時には無視される。   However, although this enhanced video object data EVOB # 3 includes information such as highlight information HLI and presentation control information PCI, advanced content ADVCT is not supported for this information. Information specified by these highlight information HLI and presentation control information PCI is ignored during playback of advanced content ADVCT based on the playlist PLLST.

図11に示すアドバンストビデオタイトルセットADVTSについて説明を行う。前記アドバンストビデオタイトルセットADVTSは、アドバンストコンテンツADVCTに対するビデオタイトルセットとして利用される。図11に示したアドバンストビデオタイトルセットADVTSとスタンダードビデオタイトルセットSVTSの違いを以下に示す。   The advanced video title set ADVTS shown in FIG. 11 will be described. The advanced video title set ADVTS is used as a video title set for the advanced content ADVCT. The difference between the advanced video title set ADVTS and the standard video title set SVTS shown in FIG. 11 is shown below.

1)アドバンストコンテンツADVCT内エンハンストビデオオブジェクトデータEVOBサポート情報
1個のメインビデオストリームMANVDを持つことができ、最大8個までのメインオーディオストリームMANADと1個のサブビデオストリームSUBVDと最大8個までのサブオーディオストリームSUBADと最大32個までのサブピクチャーストリーム(副映像)SUBPTと1個のアドバンストストリーム(後述するアドバンストアプリケーションADAPLが記録されるストリームデータ)を持つことができる。
1) Advanced content ADVCT enhanced video object data EVOB support information It can have one main video stream MANVD, up to 8 main audio streams MANAD, 1 sub video stream SUBVD and up to 8 subs It can have an audio stream SUBAD, up to 32 sub-picture streams (sub-pictures) SUBPT, and one advanced stream (stream data in which an advanced application ADAPL to be described later is recorded).

2)エンハンストビデオオブジェクトセットEVOBSのインテグレーション
図4に示すようにスタンダードコンテンツSTDTCにおいてはメニュー画面を表すビデオマネージャーVMG内のエンハンストビデオオブジェクトデータEVOBと再生する映像そのものを表すスタンダードビデオタイトルセットSVTS内のエンハンストビデオオブジェクトデータEVOBが完全に分離され、同時に動画とメニュー画面を同時に表示することはできなかった。それに対して本実施形態におけるアドバンストビデオタイトルセットADVCTでは、メニュー画面と動画を表す映像画面と混合して管理/表示することができる。 3)映像に対する管理情報の階層化の廃止
現行のDVD-VideoおよびスタンダードコンテンツSTDCTにおいては、映像の管理単位としてプログラムチェーンPGC/パートオブタイトルPTT/セルの階層構造を取っていたが、本実施形態におけるアドバンストコンテンツADVCTの管理方法としてはこのような階層構造を取らない。また、現行DVD-VideoとおよびスタンダードコンテンツSTDCTでは、ジャンプ処理など特殊処理を行うためのナビゲーションコマンドや、ユーザーオペレーション処理を行っていたが、本実施形態におけるアドバンストコンテンツADVCTでは、それらの処理も行わない。
2) Integration of the enhanced video object set EVOBS As shown in FIG. 4, in the standard content STDTC, the enhanced video object data EVOB in the video manager VMG representing the menu screen and the enhanced video in the standard video title set SVTS representing the video to be played back. The object data EVOB was completely separated, and it was not possible to display the movie and the menu screen at the same time. On the other hand, in the advanced video title set ADVCT in the present embodiment, the menu screen and the video screen representing the moving image can be mixed and managed / displayed. 3) Abolition of management information hierarchy for video In the current DVD-Video and standard content STDCT, the hierarchical structure of the program chain PGC / part of title PTT / cell was adopted as the video management unit. The advanced content ADVCT management method in Japan does not take such a hierarchical structure. In addition, in the current DVD-Video and standard content STDCT, navigation commands for performing special processing such as jump processing and user operation processing were performed. However, in the advanced content ADVCT in this embodiment, such processing is also not performed. .

4)新たなタイムマップインフォメーションTMAPIの導入
後述するコンティギュアスブロックにおいて1個のタイムマップインフォメーションTMAPIは、1個のエンハンストビデオオブジェクトデータEVOBに対応して各タイムマップインフォメーションTMAPIはそれぞれ1ファイルとして情報記憶媒体上に記録される。インターリーブドブロックの場合には、そのインターリーブドブロック内のそれぞれのストリームに対応した複数のエンハンストビデオオブジェクトデータEVOBが含まれるが、個々のエンハンストビデオオブジェクトデータEVOBに対応してタイムマップインフォメーションTMAPIが設定され、1個のインターリーブドブロック単位でそれら複数のタイムマップインフォメーションTMAPIが1個のファイル内に記録される。さらに、従来のDVD-Video及びスタンダードコンテンツSTDCTで定義されるナビゲーションパックNV_PCK内の情報は簡素化され、記録される。
4) Introduction of new time map information TMAPI One time map information TMAPI is stored as a single file corresponding to one enhanced video object data EVOB in a continuous block described later. Recorded on the medium. In the case of an interleaved block, a plurality of enhanced video object data EVOB corresponding to each stream in the interleaved block is included, but time map information TMAPI is set corresponding to each enhanced video object data EVOB. The plurality of time map information TMAPI is recorded in one file in units of one interleaved block. Further, information in the navigation pack NV_PCK defined by the conventional DVD-Video and standard content STDCT is simplified and recorded.

図11に示したアドバンストコンテンツADVCTにおけるアドバンストビデオタイトルセットADVTSの中のデータ構造について以下に説明を行う。   The data structure in the advanced video title set ADVTS in the advanced content ADVCT shown in FIG. 11 will be described below.

本実施形態においてアドバンストビデオタイトルセットADVTSは、映像情報そのものを表す1個のタイトルから1個のアドバンストビデオタイトルセットADVTSが成り立っている。本実施形態においてアドバンストビデオタイトルセットADVTSは、制御情報が記録されているアドバンストビデオタイトルセットインフォメーションADVTSIと、映像そのものを表す映像のタイトルが入っているエンハンストビデオオブジェクトセットVTSTT_EVOBSと、図11に示すようなタイムマップインフォメーションTMAPIが記録されるビデオタイトルセットタイムマップインフォメーションVTS_TMAPと、前記アドバンストビデオタイトルセットADVTSのバックアップ情報ADVTSI_BUPと前記タイムマップインフォメーションのバックアップVTS_TMAP_BUPから構成される。それらは、前記記載した順番に従い情報記憶媒体上に連続して記録されなければならない。本実施形態におけるアドバンストビデオタイトルセットADVTSが従うべきルールを以下に説明する。   In this embodiment, the advanced video title set ADVTS is composed of one advanced video title set ADVTS from one title representing the video information itself. In this embodiment, the advanced video title set ADVTS includes advanced video title set information ADVTSI in which control information is recorded, an enhanced video object set VTSTT_EVOBS containing a video title representing the video itself, as shown in FIG. It consists of video title set time map information VTS_TMAP in which time map information TMAPI is recorded, backup information ADVTSI_BUP of the advanced video title set ADVTS, and backup VTS_TMAP_BUP of the time map information. They must be recorded continuously on the information storage medium according to the order described above. The rules to be followed by the advanced video title set ADVTS in this embodiment will be described below.

1)制御情報であるアドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPは、それぞれ1個ずつのファイルとして情報記憶媒体に記録される。   1) Advanced video title set information ADVTSI, which is control information, and backup information ADVTSI_BUP are recorded as one file on the information storage medium.

2)アドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPは同じ1個のECCブロック内に共存してはならない。アドバンストビデオタイトルセットインフォメーションADVTSIとそのバックアップ情報ADVTSI_BUPが連続記録される場合、アドバンストビデオタイトルセットインフォメーションADVTSI内の最後の情報が1個のECCブロックの途中に来た場合に、同一ECCブロック内の残りの部分にパディング情報を入れ、次に来るバックアップ情報ADVTSI_BUPとは別のECCブロック内に配置されるように工夫する必要がある。それにより、アドバンストビデオタイトルセットインフォメーションADVTSIと次に来るバックアップ情報ADVTSI_BUPとの間の境界部分でのECCブロックがエラーにより読めなくてもどちらか一方が再生でき、再生時の信頼性が向上する。   2) Advanced video title set information ADVTSI and its backup information ADVTSI_BUP must not coexist in the same ECC block. When advanced video title set information ADVTSI and its backup information ADVTSI_BUP are recorded continuously, when the last information in advanced video title set information ADVTSI comes in the middle of one ECC block, the remaining information in the same ECC block It is necessary to devise so that padding information is put in the part and arranged in a different ECC block from the next backup information ADVTSI_BUP. Accordingly, even if the ECC block at the boundary between the advanced video title set information ADVTSI and the next backup information ADVTSI_BUP cannot be read due to an error, one of them can be reproduced, and the reliability at the time of reproduction is improved.

3)各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPとそのバックアップ情報VTS_TMAP_BUPは、それぞれ1個以上最大999以下のファイル内にそれぞれ記録されなければならない。   3) Each video title set time map information VTS_TMAP and its backup information VTS_TMAP_BUP must be recorded in one file or more and a maximum of 999 files respectively.

4)各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPとそのバックアップ情報VTS_TMAP_BUPは、1個の同一ECCブロック内に共存記録されてはならない。すなわち、2)と同様、両者の境界部分が1個のECCブロック内に配置されそうになった場合には、ビデオタイトルセットタイムマップインフォメーションVTS_TMAPの最後の部分が1ECCブロックの途中で終わった場合には、パディングデータを記録し、次のバックアップVTS_TMAP_BUPが次のECCブロックの先頭位置から記録されるように配置する。それにより再生時の信頼性を確保することができる。   4) Each video title set time map information VTS_TMAP and its backup information VTS_TMAP_BUP must not be recorded together in one ECC block. That is, as in 2), when the boundary between the two is likely to be arranged in one ECC block, the last part of the video title set time map information VTS_TMAP ends in the middle of one ECC block. Records padding data and arranges so that the next backup VTS_TMAP_BUP is recorded from the head position of the next ECC block. Thereby, the reliability at the time of reproduction can be ensured.

5)各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPを構成する複数のファイルは、情報記憶媒体上において連続した場所に記録されなければならない。それにより、光学ヘッドの不必要なジャンプアクセス処理を不要とし、1回の連続再生で前記ビデオタイトルセットタイムマップインフォメーションVTS_TMAPを再生することができ、再生処理の容易性と高速性が図られる。   5) A plurality of files constituting each video title set time map information VTS_TMAP must be recorded in continuous locations on the information storage medium. Thereby, unnecessary jump access processing of the optical head is not required, and the video title set time map information VTS_TMAP can be played back by one continuous playback, and the playback processing is easy and fast.

6)各ビデオタイトルセットタイムマップインフォメーションVTS_TMAPのバックアップVTS_TMAP_BUPを構成する複数のファイルは、情報記憶媒体上の連続した位置に記録されなければならない。それにより、上記5)と同様、再生処理の簡素化と高速化が図れる。   6) A plurality of files constituting the backup VTS_TMAP_BUP of each video title set time map information VTS_TMAP must be recorded at consecutive positions on the information storage medium. Thereby, similarly to the above 5), the reproduction process can be simplified and speeded up.

7)タイトルが記録されたアドバンストビデオタイトルセットのエンハンストビデオオブジェクトセットVTSTT_EVOBSは、1個以上最大999個以下のファイルとして情報記憶媒体上に記録されなければならない。   7) The enhanced video object set VTSTT_EVOBS of the advanced video title set in which the title is recorded must be recorded on the information storage medium as one or more files and a maximum of 999 files.

8)アドバンストビデオタイトルセットのタイトルが記録されたエンハンストビデオオブジェクトセットVTSTT_EVOBSが記録された複数のファイルは、情報記憶媒体上で連続した位置に記録されなければならない。それにより、エンハンストビデオタイトルセットのタイトルが記録されたエンハンストビデオオブジェクトセットVTSTT_EVOBSを1度の連続再生で再生することができ、再生時の連続性を保証することができる。   8) A plurality of files in which the enhanced video object set VTSTT_EVOBS in which the title of the advanced video title set is recorded must be recorded at consecutive positions on the information storage medium. Thereby, the enhanced video object set VTSTT_EVOBS in which the title of the enhanced video title set is recorded can be reproduced by one continuous reproduction, and the continuity at the time of reproduction can be guaranteed.

9)アドバンストビデオタイトルセットインフォメーションADVTSIのバックアップADVTSI_BUPは、アドバンストビデオタイトルセットインフォメーションADVTSIと完全に一致した内容を持たなければならない。   9) The backup ADVTSI_BUP of the advanced video title set information ADVTSI must have the same content as the advanced video title set information ADVTSI.

以下に図11に示したアドバンストコンテンツADVCT内のエンハンストビデオオブジェクトデータEVOBのデータ構造について説明を行う。本実施形態では、前記エンハンストビデオオブジェクトデータEVOBの集合体をエンハンストビデオオブジェクトセットEVOBSと呼び、それらのデータはビデオデータ、オーディオデータ、サブピクチャーデータなどから構成される。アドバンストコンテンツADVCT内でのエンハンストビデオオブジェクトセットEVOBSに関しては、本実施形態では以下のルールが適用される。   The data structure of the enhanced video object data EVOB in the advanced content ADVCT shown in FIG. 11 will be described below. In the present embodiment, the aggregate of the enhanced video object data EVOB is called an enhanced video object set EVOBS, and these data are composed of video data, audio data, sub-picture data, and the like. Regarding the enhanced video object set EVOBS in the advanced content ADVCT, the following rules are applied in the present embodiment.

1)各エンハンストビデオオブジェクトデータEVOBは後述するコンティギュアスブロック又はインターリーブドブロック内に記録される。   1) Each enhanced video object data EVOB is recorded in a continuous block or an interleaved block described later.

2)1個のエンハンストビデオオブジェクトセットEVOBSは、1以上のエンハンストビデオオブジェクトデータEVOBから構成される。前記、エンハンストビデオオブジェクトデータのID番号EVOB_IDは、情報記憶媒体上に記録された各エンハンストビデオオブジェクトデータEVOBの配置順に設定される。すなわち、各論理空間上でのエンハンストビデオオブジェクトデータEVOBが記録されたアドレスを表すロジカルセクタ番号LSNの若い順に前記ID番号EVOB_IDが付けられ、最初の番号は1として設定される。又、前記エンハンストビデオオブジェクトデータのID番号EVOB_IDは、アドバンストタイトルセットインフォメーションADVTSIで記述されるエンハンストビデオオブジェクトインフォメーションEVOBIの番号と一致する。すなわち図11示すように、エンハンストビデオオブジェクトデータEVOB#1はID番号EVOB_IDが“1”と設定され、エンハンストビデオオブジェクトデータEVOB#2のID番号EVOB_IDは“2”として設定され、それらを制御するエンハンストビデオオブジェクトインフォメーションEVOBI#1の番号が“1”、またエンハンストビデオオブジェクトデータEVOB#2を管理するエンハンストビデオオブジェクトインフォメーションEVOBI#2の番号も“2”と設定される。   2) One enhanced video object set EVOBS is composed of one or more enhanced video object data EVOB. The ID number EVOB_ID of the enhanced video object data is set in the arrangement order of the enhanced video object data EVOB recorded on the information storage medium. That is, the ID number EVOB_ID is assigned in ascending order of the logical sector number LSN indicating the address where the enhanced video object data EVOB is recorded in each logical space, and the first number is set as 1. The ID number EVOB_ID of the enhanced video object data matches the number of the enhanced video object information EVOBI described in the advanced title set information ADVTSI. That is, as shown in FIG. 11, the enhanced video object data EVOB # 1 has the ID number EVOB_ID set to “1”, the enhanced video object data EVOB # 2 has the ID number EVOB_ID set to “2”, and the enhanced video data is controlled. The number of the video object information EVOBI # 1 is set to “1”, and the number of the enhanced video object information EVOBI # 2 that manages the enhanced video object data EVOB # 2 is also set to “2”.

3)もし、エンハンストビデオオブジェクトデータEVOBがコンティギュアスブロック内に記録された場合には、各エンハンストビデオオブジェクトデータEVOBは、それぞれ対応した1個のタイムマップファイルを持つ。すなわち図11に示すように、エンハンストビデオオブジェクトデータ#1の時間を管理する部分としてタイムマップインフォメーションTMAPI#1が存在し、このタイムマップインフォメーションTMAPI#1が1個のタイムマップファイルとして情報記憶媒体上に記録される。複数のエンハンストビデオオブジェクトデータEVOBがインターリーブドブロックを構成する場合には、1個のインターリーブドブロックに対応して1個のタイムマップファイルが情報記憶媒体上に記録される。   3) If the enhanced video object data EVOB is recorded in the continuous block, each enhanced video object data EVOB has a corresponding one time map file. That is, as shown in FIG. 11, time map information TMAPI # 1 exists as a part for managing the time of enhanced video object data # 1, and this time map information TMAPI # 1 is stored as one time map file on the information storage medium. To be recorded. When a plurality of enhanced video object data EVOB constitute an interleaved block, one time map file corresponding to one interleaved block is recorded on the information storage medium.

本実施形態におけるアドバンストコンテンツADVCTでは、図12に示すオブジェクト情報を使用する。各オブジェクト情報のデータタイプ及びオブジェクト記録場所、デコーダー再生処理部の対応は図12に示すような状況になっている。まず始めにオブジェクトの記録場所としてネットワーク経由と、パーシステントストレージPRSTRについて説明を行う。   The advanced content ADVCT in this embodiment uses the object information shown in FIG. The correspondence between the data type of each object information, the object recording location, and the decoder reproduction processing unit is as shown in FIG. First, a description will be given of the object storage location via the network and persistent storage PRSTR.

図12オブジェクトの記録場所に関するネットワーク経由について説明を行う。   FIG. 12 A description will be given of network connection regarding the object recording location.

本実施形態において、アドバンストコンテンツADVCTを再生するためのオブジェクトの記録場所としてネットワークサーバーNTSRVからネットワークを経由して転送されたオブジェクトデータの再生を前提としている。従って本実施形態における高機能なプレーヤーは、ネットワークアクセスを前提としている。ネットワーク経由でデータを転送する場合のオブジェクトが記録されている場所を表すネットワークサーバーNTSRVは、通常再生時の情報記憶媒体DISCのアドバンストコンテンツADVCT内でアクセスすべきサーバーが指定されており、そのサーバー設定はアドバンストコンテンツADVCTを作成したコンテンツプロバイダにより設定される。前記ネットワークサーバーNTSRVは通常インターネット上にネットワークサーバーNTSRVが設定されている。   In the present embodiment, it is assumed that the object data transferred from the network server NTSRV via the network is played back as an object recording location for playing back the advanced content ADVCT. Therefore, the highly functional player in this embodiment is premised on network access. The network server NTSRV, which represents the location where objects are transferred when transferring data via the network, specifies the server to be accessed in the advanced content ADVCT of the information storage medium DISC during normal playback. Is set by the content provider that created the advanced content ADVCT. The network server NTSRV is usually set up on the Internet.

本実施形態におけるアドバンストコンテンツADVCTが記録されたファイルが、前記ネットワークサーバーNTSRV内に事前に記録されている。事前に設定されたアプリケーション処理コマンドAPIにより、アドバンストナビゲーションADVNVがファイルキャッシュFLCCH(データキャッシュDTCCH)又は後述するパーシステントストレージPRSTR上にダウンロードされる。本実施形態においては、前記ネットワークサーバーNTSRVからプライマリービデオセットPRMVSをプライマリービデオセットプレーヤーにより、直接再生はできないようになっている。前記プライマリービデオセットPRMVSは、パーシステントストレージPRSTRに1度記録され、後述するパーシステントストレージPRSTR経由でデータ再生が行われる。セカンダリーエンハンストビデオオブジェクトデータS-EVOBは、ストリーミングバッファを利用しネットワークサーバーNTSRVから直接セカンダリービデオプレーヤーSCDVPにより再生することができる。図12に示したパーシステントストレージPRSTRについて以下に説明を行う。   A file in which the advanced content ADVCT in this embodiment is recorded is recorded in advance in the network server NTSRV. The advanced navigation ADVNV is downloaded onto the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR described later by the application processing command API set in advance. In this embodiment, the primary video set PRMVS cannot be directly reproduced from the network server NTSRV by the primary video set player. The primary video set PRMVS is recorded once in the persistent storage PRSTR, and data reproduction is performed via the persistent storage PRSTR described later. The secondary enhanced video object data S-EVOB can be reproduced directly by the secondary video player SCDVP from the network server NTSRV using a streaming buffer. The persistent storage PRSTR shown in FIG. 12 will be described below.

本実施形態において、パーシステントストレージPRSTRについては2種類定義する。1つ目としては、固定されたパーシステントストレージPRSTRと呼ばれ、本実施形態における情報記録再生装置1(プレーヤー)においては、前記パーシステントストレージPRSTRを必須で持つことを義務づけられている。前記固定されたパーシステントストレージPRSTRとして最も多く使われる具体的な記録媒体として本実施形態ではフラッシュメモリを想定している。本実施形態において前記固定されたパーシステントストレージPRSTRの容量は64MB以上あることを前提とする。前記のようにパーシステントストレージPRSTRの最低許容されるメモリ容量を設定することにより、情報記録再生装置1の具体的な詳細構成に依らずアドバンストコンテンツADVCTの再生安定性を保証できる。図12で示すようにオブジェクトの記録場所としてファイルキャッシュFLCCH(データーキャッシュDTCCH)が指定されている。前記ファイルキャッシュFLCCH(データーキャッシュDTCCH)は、例えばDRAMやSRAMのような比較的容量の少ないキャッシュメモリを表している。また本実施形態における固定されたパーシステントストレージPRSTRはフラッシュメモリを内蔵し、そのメモリ自身は情報再生装置からの取出しが不可能な形として設定する。しかし本実施形態はそれに限らず、例えば前記固定型パーシステントストレージPRSTRに可搬形のフラッシュメモリを使用することもできる。   In this embodiment, two types of persistent storage PRSTR are defined. The first is called a fixed persistent storage PRSTR, and the information recording / reproducing apparatus 1 (player) in the present embodiment is obliged to have the persistent storage PRSTR as an essential element. In this embodiment, a flash memory is assumed as a specific recording medium most frequently used as the fixed persistent storage PRSTR. In the present embodiment, it is assumed that the capacity of the fixed persistent storage PRSTR is 64 MB or more. By setting the minimum allowable memory capacity of the persistent storage PRSTR as described above, it is possible to guarantee the playback stability of the advanced content ADVCT regardless of the specific detailed configuration of the information recording / playback apparatus 1. As shown in FIG. 12, a file cache FLCCH (data cache DTCCH) is designated as an object recording location. The file cache FLCCH (data cache DTCCH) represents a cache memory having a relatively small capacity such as a DRAM or an SRAM. In addition, the fixed persistent storage PRSTR in this embodiment incorporates a flash memory, and the memory itself is set in a form that cannot be taken out from the information reproducing apparatus. However, the present embodiment is not limited thereto, and for example, a portable flash memory can be used for the fixed persistent storage PRSTR.

本実施形態における他のパーシステントストレージPRSTRのタイプは付加的なパーシステントストレージPRSTRと呼ぶ。前記付加的なパーシステントストレージPRSTR はリムーバブルなストレージデバイスであり、例えばUSBメモリや可搬形HDD、またはメモリーカードなどで実現することができる。   Another type of persistent storage PRSTR in this embodiment is referred to as additional persistent storage PRSTR. The additional persistent storage PRSTR is a removable storage device, and can be realized by, for example, a USB memory, a portable HDD, or a memory card.

本実施形態では固定的なパーシステムテントストレージPRSTRとしての例としてフラッシュメモリ、また付加的なパーシステントストレージPRSTRとして、USBメモリ、可搬形HDD、メモリーカードなどを挙げたが、本実施形態はそれに限らず他の記録媒体を使うことも可能である。   In this embodiment, a flash memory is used as an example of a fixed persistent system tent storage PRSTR, and a USB memory, a portable HDD, a memory card, and the like are given as additional persistent storage PRSTR. However, this embodiment is not limited thereto. It is possible to use other recording media.

本実施形態においては、それらのパーシステントストレージPRSTRに対してはデータ処理コマンドAPI(アプリケーションインターフェース)を利用してデータ出し入れなどの処理を行う。特定のアドバンストコンテンツADVCTが記録されたファイルは、前記パーシステントストレージPRSTR内に記録することができる。アドバンストナビゲーションADVNVはデータソースからアドバンストナビゲーションADVNVが記録されたファイルを、前記パーシステントストレージPRSTRやファイルキャッシュFLCCH(データーキャッシュDTCCH)などにコピーすることができる。プライマリービデオプレーヤーPRMVPはプライマリービデオセットPRMVSを前記パーシステントストレージPRSTRから直接読取り、表示することができる。またセカンダリービデオプレーヤーSCDVPは、セカンダリービデオセットSCDVSを前記パーシステントストレージPRSTRから直接読取り、表示することができる。   In the present embodiment, such persistent storage PRSTR is processed using data processing command API (application interface). A file in which specific advanced content ADVCT is recorded can be recorded in the persistent storage PRSTR. The advanced navigation ADVNV can copy a file in which the advanced navigation ADVNV is recorded from a data source to the persistent storage PRSTR or the file cache FLCCH (data cache DTCCH). The primary video player PRMVP can read and display the primary video set PRMVS directly from the persistent storage PRSTR. The secondary video player SCDVP can directly read and display the secondary video set SCDVS from the persistent storage PRSTR.

本実施形態において情報記憶媒体や前記パーシステントストレージPRSTR、またはネットワークサーバーNTSRVに記録されたアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの情報は必ず一度ファイルキャッシュ内に記録された後データ処理される。本実施形態のようにアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTをファイルキャッシュFLCCH(データーキャッシュDTCCH)に一度取込むことにより表示処理や制御処理の高速化を保証することができる。   In the present embodiment, information on the advanced application ADAPL and advanced subtitle ADSBT recorded in the information storage medium, the persistent storage PRSTR, or the network server NTSRV is always recorded in the file cache and then processed. As in the present embodiment, the high speed display processing and control processing can be guaranteed by fetching the advanced application ADAPL and the advanced subtitle ADSBT into the file cache FLCCH (data cache DTCCH) once.

図12に示す再生処理部であるプライマリービデオプレーヤーPRMVPとセカンダリービデオプレーヤーSCDVPについては後述するが、プライマリービデオプレーヤーPRMVP内にはメインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDEC、サブオーディオデコーダーとSADECとサブピクチャーデコーダーSPDECを持ち、セカンダリービデオプレーヤーSCDVPは、メインビデオデコーダーMADEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDECとサブオーディオデコーダーSADECを前記のプライマリービデオプレーヤーPRMVP内の各種デコーダーと兼用する。またアドバンストアプリケーションプレゼンテーションエンジンAAPENとアドバンストサブタイトルプレーヤーASBPLについても後述する。   The primary video player PRMVP and the secondary video player SCDVP which are the playback processing units shown in FIG. 12 will be described later. In the primary video player PRMVP, a main video decoder MVDEC, a main audio decoder MADEC, a sub video decoder SVDEC, The secondary video player SCDVP has a main video decoder MADEC, a main audio decoder MADEC, a sub video decoder SVDEC, and a sub audio decoder SADEC also as various decoders in the primary video player PRMVP. The advanced application presentation engine AAPEN and the advanced subtitle player ASBPL will also be described later.

本実施形態において1枚の情報記憶媒体DISC内に、唯一1個のプライマリービデオセットPRMVSが存在する。このプライマリービデオセットPRMVSは、その管理情報と1以上のエンハンストビデオオブジェクトEVOBファイルと、タイムマップTMAPファイルから構成され、それぞれの組で一致したファイル名が使われる。   In the present embodiment, there is only one primary video set PRMVS in one information storage medium DISC. The primary video set PRMVS is composed of management information, one or more enhanced video object EVOB files, and a time map TMAP file, and the file names that match in each set are used.

プライマリービデオセットPRMVSは、プライマリーオーディオビデオPRMAVのフォーマットを含む。プライマリービデオセットPRMVSのデータ構造は、アドバンストビデオタイトルセットインフォメーションADVTSI、タイムマップTMAP及びプライマリーエンハンストビデオオブジェクトデータP-EVOBなどから構成されている。プライマリービデオセットPRMVSはプライマリービデオプレーヤーPRMVPにより再生される。   The primary video set PRMVS includes the format of the primary audio video PRMAV. The data structure of the primary video set PRMVS includes advanced video title set information ADVTSI, a time map TMAP, primary enhanced video object data P-EVOB, and the like. The primary video set PRMVS is played by the primary video player PRMVP.

図12に示すプライマリービデオセットPRMVSのデータ中身について説明を行う。   The data contents of the primary video set PRMVS shown in FIG. 12 will be described.

本実施形態においてプライマリービデオセットPRMVSは主に情報記憶媒体に記録されたメインの映像データを意味する。このプライマリービデオセットPRMVSのデータタイプとしてプライマリーオーディオPRMAVがあり、メインビデオMANVDとメインオーディオMANADと副映像SUBPTは従来のDVD-Videoや、本実施形態におけるスタンダードコンテンツSTDCTのビデオ情報、オーディオ情報、副映像と同じものを意味する。本実施形態におけるアドバンストコンテンツADVCTでは新たに同時に二つまでの画面を表示することが可能となっている。すなわち、メインビデオMANVDと同時に再生が可能な映像としてサブビデオSUBVDが定義され、また同様、メインオーディオMANADと同時に出力が可能なサブオーディオSUBADが新たに定義されている。   In the present embodiment, the primary video set PRMVS mainly means main video data recorded on an information storage medium. There is primary audio PRMAV as the data type of this primary video set PRMVS. Means the same thing. In the advanced content ADVCT in this embodiment, it is possible to newly display up to two screens simultaneously. That is, the sub video SUBVD is defined as a video that can be reproduced simultaneously with the main video MANVD, and similarly, the sub audio SUBAD that can be output simultaneously with the main audio MANAD is newly defined.

本実施形態において、サブオーディオSUBADの使い方として以下の2種類を考えることができる。   In the present embodiment, the following two types of sub audio SUBAD can be considered.

1)同時にメインビデオMANVDとサブビデオSUBVDが表示される場合、前記サブビデオSUBVDの音声情報をサブオーディオSUBADで出力する方法
2)画面にはメインビデオMANVDのみが再生・表示され、それに対応したメインビデオMANVDの映像に対応した音声であるメインオーディオMANADが出力されている時に、例えば監督のコメントを音声で重ねて表示をする場合、前記サブオーディオSUBADを監督のコメントとしてメインオーディオMANADに重ねて表示する
セカンダリービデオセットSCDVSは、プライマリービデオセットPRMVS内のメインオーディオMANADに対する置換えとして使用される場合と、プライマリービデオセットPRMVSの付加情報もしくは、代替情報として使われる使い方がある。また本実施形態ではそれに限らず、セカンダリービデオセットSCDVSをサブスティテュートオーディオSBTADのメインオーディオMANADの置換えあるいは、セカンダリーオーディオビデオSCDAVの追加(重ねた状態での表示)あるいは、置換えとして使うこともできる。本実施形態においてセカンダリービデオセットSCDVSのコンテンツは、前述したようなネットワークサーバーNTSRVからネットワーク経由でダウンロードすることもできるし、前述したパーシステントストレージPRSTRに記録され、利用されるか、あるいは、本発明の情報記憶媒体DISCに事前に記録されることもできる。もし、前記セカンダリービデオセットSCDVSの情報が本発明情報記憶媒体DISC内に記録されている場合には、前記セカンダリービデオセットSCDVSのファイルがファイルキャッシュFLCCH(データキャッシュDTCCH)又はパーシステントストレージPRSTRに一度記録され、その後ファイルキャッシュ又はパーシステントストレージPRSTRから再生される形態を取る。また前記セカンダリービデオセットSCDVSの情報は、プライマリービデオセットPRMVSの一部のデータと同時に再生することもできる。本実施形態において、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSを直接アクセスし表示することができるが、本実施形態における情報記憶媒体DISCに記録されたセカンダリービデオセットSCDVSは直接再生することはできない。また本実施形態において、プライマリービデオセットPRMVS内の情報は、前述したパーシステントストレージPRSTRに記録され、パーシステントストレージPRSTRから直接プライマリービデオセットPRMVSを再生することができる。すなわち、前記セカンダリービデオセットSCDVSがネットワークサーバーNTSRV上に記録されている場合には、前記セカンダリービデオセットSCDVSの内容を全てファイルキャッシュFLCCH(データーキャッシュDTCCH)かパーシステントストレージPRSTRに1度転送した後、再生するようになっている。また本実施形態においてはそれに限らず、ネットワークサーバーNTSRV上に記録されたセカンダリービデオセットSCDVSをストリーミングバッファがオーバーフローさせない範囲で適宜部分的にセカンダリービデオセットSCDVSの一部をストリーミングバッファに格納し、そこから再生することもできる。
1) When the main video MANVD and the sub video SUBVD are displayed at the same time, the audio information of the sub video SUBVD is output as the sub audio SUBAD. 2) Only the main video MANVD is played back and displayed on the screen. When the main audio MANAD, which is the audio corresponding to the video of the video MANVD, is being output, for example, when the director's comment is superimposed and displayed as a voice, the sub audio SUBAD is superimposed on the main audio MANAD as the director's comment. The secondary video set SCDVS can be used as a replacement for the main audio MANAD in the primary video set PRMVS or used as additional information or alternative information for the primary video set PRMVS. In the present embodiment, the secondary video set SCDVS can be used as a substitute for the main audio MANAD of the substitute audio SBTAD, or as a secondary audio video SCDAV (displayed in an overlapped state) or as a substitute. In this embodiment, the content of the secondary video set SCDVS can be downloaded from the network server NTSRV as described above via the network, and is recorded and used in the persistent storage PRSTR described above, or according to the present invention. It can also be recorded in advance on the information storage medium DISC. If the information of the secondary video set SCDVS is recorded in the information storage medium DISC of the present invention, the file of the secondary video set SCDVS is once recorded in the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR. And then replayed from the file cache or persistent storage PRSTR. The information of the secondary video set SCDVS can be reproduced simultaneously with some data of the primary video set PRMVS. In the present embodiment, the primary video set PRMVS recorded on the information storage medium DISC can be directly accessed and displayed, but the secondary video set SCDVS recorded on the information storage medium DISC in the present embodiment cannot be directly reproduced. . In the present embodiment, the information in the primary video set PRMVS is recorded in the persistent storage PRSTR described above, and the primary video set PRMVS can be directly reproduced from the persistent storage PRSTR. That is, when the secondary video set SCDVS is recorded on the network server NTSRV, the contents of the secondary video set SCDVS are all transferred once to the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR. It comes to play. In addition, in the present embodiment, the secondary video set SCDVS recorded on the network server NTSRV is not limited to this, and a part of the secondary video set SCDVS is stored in the streaming buffer as appropriate in a range in which the streaming buffer does not overflow. It can also be played.

セカンダリービデオセットSCDVSは、サブスティテュートオーディオSBTADとセカンダリーオーディオビデオSCDAVの2種類のタイプのオブジェクトが含まれる。セカンダリービデオセットSCDVSは、情報記憶媒体DISC、ネットワークサーバーNTSRV、パーシステントストレージPRSTRやファイルキャッシュから情報を読取ることが可能である。セカンダリービデオセットSCDVSのデータ構造は、アドバンストビデオタイトルセットADVTSを簡素化し、一部修正したものである。セカンダリービデオセットSCDVSはタイムマップTMAPとセカンダリーエンハンストビデオオブジェクトデータS-EVOBからなる。セカンダリービデオセットSCDVSは、セカンダリービデオプレーヤーSCDVPにより再生される。   The secondary video set SCDVS includes two types of objects, a substitute audio SBTAD and a secondary audio video SCDAV. The secondary video set SCDVS can read information from the information storage medium DISC, the network server NTSRV, the persistent storage PRSTR, and the file cache. The data structure of the secondary video set SCDVS is obtained by simplifying and partially modifying the advanced video title set ADVTS. The secondary video set SCDVS includes a time map TMAP and secondary enhanced video object data S-EVOB. The secondary video set SCDVS is played by the secondary video player SCDVP.

図12に示すセカンダリービデオセットSCDVSのデータ中身について説明を行う。   The data contents of the secondary video set SCDVS shown in FIG. 12 will be described.

基本的にはセカンダリービデオセットSCDVSはパーシステントストレージPRSTRやネットワークを経由し、本実施形態に示す情報記憶媒体以外から情報を取込み、前記説明したプライマリービデオセットPRMVSと一部置換えて表示するデータのことを示している。すなわち、図12に示すメインオーディオデコーダーMADECはプライマリービデオプレーヤーPRMVPとセカンダリービデオプレーヤーSCDVPのメインオーディオデコーダーMADECは共通のものを示し、セカンダリービデオプレーヤーSCDVPでのメインオーディオデコーダーMADECを使い、セカンダリービデオセットSCDVSのコンテンツを再生する時には、プライマリービデオプレーヤーPRMVPによるプライマリービデオセットPRMVSのサブオーディオSUBADは再生されず、セカンダリービデオセットSCDVSのデータで置換えられて表示される。セカンダリービデオセットSCDVSにはサブスティテュートオーディオビデオSBTAV、サブスティテュートオーディオSBTADとセカンダリーオーディオビデオSCDAVの3種類が存在する。サブスティテュートオーディオSBTAD内のメインオーディオMANADは基本的にプライマリービデオセットPRMVS内のメインオーディオMANADと置換えられる時に利用される。前記サブスティテュートオーディオSBTADは、1個のメインオーディオストリームMANADから構成される。例えば、プライマリービデオセットPRMVSとして予め情報記憶媒体DISCに記録されたメインオーディオMANADが、メインビデオMANVDのビデオ映像に対し日本語と英語が記録されている場合、メインオーディオMANADではユーザー表示する時に日本語か英語の音声しか表示することができない。それに対して、例えば中国語を母国語としているユーザーでは、ネットワーク経由でネットワークサーバーNTSRV内に記録されている中国語の音声情報をネットワークダウンロードし、前記日本語又は英語で表示する代わりに、プライマリービデオセットPRMVSのメインビデオMANVD再生時の音声をセカンダリービデオセットSCDVSのメインオーディオMANADとして中国語に置き換えて音声出力することが本実施形態により可能となる。   Basically, the secondary video set SCDVS is the data to be displayed by replacing the primary video set PRMVS described above by fetching information from other than the information storage medium shown in this embodiment via the persistent storage PRSTR and the network. Is shown. That is, the main audio decoder MADEC shown in FIG. 12 shows the common main audio decoder MADEC of the primary video player PRMVP and the secondary video player SCDVP, and the main audio decoder MADEC in the secondary video player SCDVP is used to change the secondary video set SCDVS. When the content is reproduced, the sub audio SUBAD of the primary video set PRMVS by the primary video player PRMVP is not reproduced, but is replaced with the data of the secondary video set SCDVS and displayed. There are three types of secondary video set SCDVS: substitute audio video SBTAV, substitute audio SBTAD, and secondary audio video SCDAV. The main audio MANAD in the substitute audio SBTAD is basically used when it is replaced with the main audio MANAD in the primary video set PRMVS. The substitute audio SBTAD is composed of one main audio stream MANAD. For example, if the main audio MANAD previously recorded on the information storage medium DISC as the primary video set PRMVS is recorded in Japanese and English for the video image of the main video MANVD, the main audio MANAD will display Japanese when the user displays it. Or can only display English audio. On the other hand, for a user whose native language is Chinese, for example, instead of downloading the Chinese voice information recorded in the network server NTSRV via the network and displaying it in Japanese or English, the primary video is used. According to the present embodiment, it is possible to replace the sound at the time of reproducing the main video MANVD of the set PRMVS with Chinese as the main audio MANAD of the secondary video set SCDVS and output the sound.

同様にサブスティテュートオーディオビデオSBTAV内のメインビデオMANVDとメインオーディオMANADは基本的にプライマリービデオセットPRMVS内のメインビデオMANVDとメインオーディオMANADとを同時に置換えられる時に利用される。前記サブスティテュートオーディオビデオSBTAVは、1個のメインビデオストリームMANVDと1個のメインオーディオストリームMANADから構成される。例えば、プライマリービデオセットPRMVSとして図17〜図19に示す上映予告41がメインビデオストリームMANVDとメインオーディオストリームMANADの形で予め情報記憶媒体DISCに記録された場合、前記情報記憶媒体DISC発売日から大幅に日付が経過し前記上映予告41の内容を変更したい時にネットワークサーバーNTSRVから前記サブスティテュートオーディオビデオSBTAV内のメインビデオMANVDとメインオーディオMANADを同時に置き換えてユーザーに表示する時に利用できる。それに対して、セカンダリービデオセットSCDVSのサブオーディオSUBADは、例えば前述したようなプライマリービデオセットPRMVSのメインビデオMANVDと同期して出力されるメインオーディオMANADにかぶせて、例えば監督のコメント情報を同時に表示させるなど、2画面で表示する時のセカンダリーオーディオビデオのSCDAVのサブビデオSUBVDの画面に同期した音声を表示する時にセカンダリービデオセットSCDVSのサブオーディオSUBADを使用することができる。   Similarly, the main video MANVD and the main audio MANAD in the substitute audio video SBTAV are basically used when the main video MANVD and the main audio MANAD in the primary video set PRMVS can be replaced simultaneously. The substitute audio video SBTAV is composed of one main video stream MANVD and one main audio stream MANAD. For example, when the screening notice 41 shown in FIGS. 17 to 19 as the primary video set PRMVS is recorded in the information storage medium DISC in the form of the main video stream MANVD and the main audio stream MANAD in advance, This can be used when the main video MANVD and the main audio MANAD in the substitute audio video SBTAV are simultaneously replaced and displayed to the user from the network server NTSRV when the date has passed and the contents of the screening notice 41 are desired to be changed. On the other hand, the sub audio SUBAD of the secondary video set SCDVS, for example, displays the comment information of the director at the same time on the main audio MANAD output in synchronization with the main video MANVD of the primary video set PRMVS as described above, for example. For example, the sub audio SUBAD of the secondary video set SCDVS can be used when displaying the audio synchronized with the sub video SUBVD screen of the SCDAV of the secondary audio video when displaying on the two screens.

本実施形態においてセカンダリーオーディオビデオSCDAVは、1個以下(0を含む)のサブビデオUBVDと1個以下の(0を含む)サブオーディオSUBADを含む。本実施形態において、セカンダリーオーディオビデオSCDAVはプライマリービデオセットPRMAVに重ねて(追加して)表示するために使われている。また、本実施形態において前記セカンダリーオーディオビデオSCDAVはプライマリービデオセットPRMVS内のサブビデオSUBVDとサブオーディオSUBADとの置換えとして使うこともできる。   In the present embodiment, the secondary audio video SCDAV includes one or less (including 0) sub-video UBVD and one or less (including 0) sub-audio SUBAD. In the present embodiment, the secondary audio video SCDAV is used to be superimposed (added) on the primary video set PRMAV. In the present embodiment, the secondary audio video SCDAV can also be used as a replacement for the sub video SUBVD and sub audio SUBAD in the primary video set PRMVS.

セカンダリーオーディオビデオSCDAVは、プライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADの置換えとして使用される。セカンダリーオーディオビデオSCDAVは、次のような条件が含まれている。   The secondary audio video SCDAV is used as a replacement for the sub video SUBVD and the sub audio SUBAD of the primary audio video PRMAV. The secondary audio video SCDAV includes the following conditions.

1)サブビデオSUBVDストリームのみを持つ
2)サブビデオSUBVDとサブオーディオSUBADが共に含まれる場合
3)サブオーディオSUBADが単独で存在する
前記、セカンダリーオーディオビデオSCDAV内のストリーム再生時において、プライマリーオーディオビデオPRMAV内のサブビデオSUBVDやサブオーディオSUBADを再生することはできない。前記セカンダリーオーディオビデオSCDAVはセカンダリービデオセットSCDVSに含まれる。
1) Has only sub-video SUBVD stream 2) When both sub-video SUBVD and sub-audio SUBAD are included 3) Sub-audio SUBAD exists alone Primary audio video PRMAV during stream playback in secondary audio video SCDAV The sub video SUBVD and sub audio SUBAD cannot be reproduced. The secondary audio video SCDAV is included in the secondary video set SCDVS.

図12におけるアドバンストアプリケーションADAPL内の情報には、マークアップMRKUP、スクリプトSCRPT、静止画IMAGE、イフェクトオーディオEFTAD、フォントFONTなどが含まれる。前述したようにこれらのアドバンストアプリケーションADAPLの情報は、一度ファイルキャッシュに蓄えられ使用される。ファイルキャッシュFLCCH(データーキャッシュDTCCH)へのダウンロードに関する情報は後述するマニュフェストファイルMNFSTの中に記録される。また前記アドバンストアプリケーションADAPLのダウンロードタイミングなどの情報は、プレイリストPLLST内のリソースインフォメーションRESRCI内に記述されている。また本実施形態では前記マニュフェストファイル内MNFSTには、初期に実行されるマークアップMRKUP情報に関するローディングに関する情報や、スクリプトファイルSCRPTに記録された情報をファイルキャッシュFLCCH(データーキャッシュDTCCH)にローディングする時に必要な情報なども記録されている。   The information in the advanced application ADAPL in FIG. 12 includes markup MRKUP, script SCRPT, still image IMAGE, effect audio EFTAD, font FONT, and the like. As described above, the information of these advanced applications ADAPL is once stored in the file cache and used. Information related to downloading to the file cache FLCCH (data cache DTCCH) is recorded in a manifest file MNFST described later. Information such as the download timing of the advanced application ADAPL is described in the resource information RESRCI in the playlist PLLST. In the present embodiment, the MNFST in the manifest file is required when loading information related to the markup MRKUP information to be executed initially and information recorded in the script file SCRPT into the file cache FLCCH (data cache DTCCH). Other information is also recorded.

アドバンストアプリケーションADAPLは、以下に述べる3つの機能を持っている。   The advanced application ADAPL has the following three functions.

最初の機能はアドバンストコンテンツADVCTの再生遷移に対する制御機能(例えば異なる画面間のジャンプ制御など)であり、2番目の機能としてメニューボタンなどのグラフィカルな表示を実現することである。そして3番目の機能としては音声再生時のイフェクト制御機能である。アドバンストナビゲーションADVNVのファイルは、アドバンストアプリケーションADAPLの実現において、マニュフェストMNFST、スクリプトSCRPT及びマークアップMRKUPなどからなる。アドバンストエレメントADVELファイル内の情報は静止画IMAGEやフォントFONTなどに関する情報であり、前記2番目の機能のグラフィカル表示やオーディオ表示の時の表示アイコンや表示オーディオとして使用される。   The first function is a control function for playback transition of the advanced content ADVCT (for example, jump control between different screens), and the second function is to realize a graphical display such as a menu button. The third function is an effect control function during audio reproduction. The file of the advanced navigation ADVNV includes a manifest MNFST, a script SCRPT, a markup MRKUP, and the like in the realization of the advanced application ADAPL. The information in the advanced element ADVEL file is information relating to the still image IMAGE, font FONT, and the like, and is used as a display icon or display audio at the time of graphical display or audio display of the second function.

アドバンストサブタイトルADSBTもアドバンストアプリケーションADAPLと同様、一度ファイルキャッシュFLCCH(データーキャッシュDTCCH)に保存された後使用される。アドバンストサブタイトルADSBTの情報は情報記憶媒体DISCやパーシステントストレージPRSTR、あるいはネットワークから取込むことができる。本実施形態におけるアドバンストサブタイトルADSBTは基本的に、従来の映像に対する置換えされた字幕やテロップもしくは絵文字や静止画などのイメージが記録される。字幕の置換えとしては基本的には前記イメージ以外にはテキストがベースとなっているが、フォントFONTが変わって表示することもできる。これらアドバンストサブタイトルADSBTはネットワークサーバーNTSRVからダウンロードして追加でき、例えば情報記憶媒体DISCに入っているプライマリービデオセットPRMVS内のメインビデオMANVDを再生しながら新しい字幕や、その映像に対する説明文を流す為に使うこともできる。前述したように例えばプライマリービデオセットPRMVS内の字幕として日本語と英語のみの字幕が副映像SUBPTに入っていた場合、中国語を母国語としているユーザーがネットワークダウンロードにより、中国語の字幕をアドバンストサブタイトルADSBTとしてネットワークサーバーNTSRVから読取り、表示するなどの使用方法がある。この場合のデータタイプはアドバンストサブタイトルADSBTやフォントFONTに対するマークアップMRKUPSのタイプとして設定される。   As with the advanced application ADAPL, the advanced subtitle ADSBT is once stored in the file cache FLCCH (data cache DTCCH) and then used. The information of the advanced subtitle ADSBT can be taken from the information storage medium DISC, persistent storage PRSTR, or network. The advanced subtitle ADSBT in this embodiment basically records images such as subtitles, telops, pictographs, still images, and the like replaced with conventional videos. The subtitle replacement is basically based on text other than the image, but the font FONT can be changed and displayed. These advanced subtitles ADSBT can be downloaded and added from the network server NTSRV. For example, to play new subtitles and explanatory text for the video while playing the main video MANVD in the primary video set PRMVS in the information storage medium DISC It can also be used. As described above, for example, if subtitles in Japanese and English only are included in the sub video SUBPT as subtitles in the primary video set PRMVS, Chinese subtitles are advanced subtitles by network download by users who are native speakers of Chinese There are usage methods such as reading and displaying from the network server NTSRV as ADSBT. The data type in this case is set as the markup MRKUPS type for the advanced subtitle ADSBT and font FONT.

本実施形態において前記アドバンストサブタイトルADSBTは、プライマリービデオセットPRMVSのメインビデオMANVDと同期して表示されるサブタイトル(字幕など)として使用することができる。前記アドバンストサブタイトルADSBTは、プライマリービデオセットPRMVS内の副映像SUBPTに対する同時表示(追加表示処理)として使うこともできるし、前記プライマリービデオセットPRMVSの副映像SUBPTの置換えとして利用することもできる。前記アドバンストサブタイトルADSBTは、アドバンストサブタイトルADSBTに対する1個のマニュフェストファイルMNFSTSと、アドバンストサブタイトルADSBTの1個のマークアップファイルMRKUPSとそして1個のフォントファイルFONTSから構成される。前記アドバンストサブタイトルADSBTのマークアップファイルMRKUPSは、アドバンストアプリケーションADAPLのマークアップMRKUPのサブセットとして存在している。   In the present embodiment, the advanced subtitle ADSBT can be used as a subtitle (such as subtitles) displayed in synchronization with the main video MANVD of the primary video set PRMVS. The advanced subtitle ADSBT can be used for simultaneous display (additional display processing) for the sub video SUBPT in the primary video set PRMVS, or can be used as a replacement for the sub video SUBPT of the primary video set PRMVS. The advanced subtitle ADSBT is composed of one manifest file MNFSTS for the advanced subtitle ADSBT, one markup file MRKUPS of the advanced subtitle ADSBT, and one font file FONTS. The markup file MRKUPS of the advanced subtitle ADSBT exists as a subset of the markup MRKUP of the advanced application ADAPL.

アドバンストコンテンツADVCTでは、サブタイトルに関し2つの意味を持つ。   Advanced content ADVCT has two meanings regarding subtitles.

1つ目としてスタンダードコンテンツSTDCTの副映像機能と同様、プライマリーオーディオビデオPRMAVにおける副映像ストリームとして使われる。また、もう一つの意味としてアドバンストサブタイトルADSBTとして使用される。両方のそれぞれの意味は同時に両方の目的で使ってはならない。前記アドバンストサブタイトルADSBTはアドバンストアプリケーションADAPLのサブセットとして位置付けられる。   First, it is used as a sub-picture stream in the primary audio video PRMAV, similar to the sub-picture function of the standard content STDCT. Moreover, it is used as advanced subtitle ADSBT as another meaning. Both meanings of both must not be used for both purposes at the same time. The advanced subtitle ADSBT is positioned as a subset of the advanced application ADAPL.

アドバンストストリームはプライマリービデオセットPRMVSを除く、1以上のアドバンストコンテンツファイルADVCTから構成されるパッケージファイルを意味している。前記アドバンストストリームはプライマリーエンハンストビデオオブジェクトセットP-EVOBSの中にマルチプレクスされて記録され、一旦ファイルキャッシュFLCCH(データーキャッシュDTCCH)に転送される。このプライマリーエンハンストビデオオブジェクトセットP-EVOBSは、プライマリービデオプレーヤーPRMVPにより再生処理が行われる。これら、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内にマルチプレクスされて記録されたファイルは、アドバンストコンテンツADVCTの再生時には必須なファイルであり、本実施形態の情報記憶媒体DISC上にファイル構造で記録されている。   The advanced stream means a package file composed of one or more advanced content files ADVCT excluding the primary video set PRMVS. The advanced stream is multiplexed and recorded in the primary enhanced video object set P-EVOBS, and once transferred to the file cache FLCCH (data cache DTCCH). The primary enhanced video object set P-EVOBS is played back by the primary video player PRMVP. These files that are multiplexed and recorded in the primary enhanced video object set P-EVOBS are essential files for playback of the advanced content ADVCT, and are recorded in the file structure on the information storage medium DISC of the present embodiment. Yes.

アドバンストナビゲーションADVNVに関するファイルは、アドバンストコンテンツADVCTの再生時、割込み処理に利用される。   The file related to the advanced navigation ADVNV is used for interrupt processing when the advanced content ADVCT is played back.

プライマリーオーディオビデオPRMAVは、メインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTなどが含まれるストリームから構成される。情報再生装置は、メインビデオMANVDとメインオーディオMANVD再生時に、付加的にサブビデオSUBVDとサブオーディオSUBADを同時に再生することができる。プライマリーオーディオビデオPRMAVは情報記憶媒体DISC、もしくはパーシステントストレージPRSTRに記録することができる。プライマリーオーディオビデオPRMAVは、プライマリービデオセットPRMVSの一部として含まれる。ビデオとオーディオの組合せ再生は、プライマリーオーディオビデオPRMAVとセカンダリービデオセットSCDVS内のオブジェクト条件により制限される。プライマリーオーディオビデオPRMAVはアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTなどに使われる各種データファイルを一緒に持つことができる。これらのファイルに含まれるストリームはアドバンストストリームと呼ばれている。   The primary audio video PRMAV includes a stream including a main video MANVD, a main audio MANAD, a sub video SUBVD, a sub audio SUBAD, a sub video SUBPT, and the like. The information reproducing apparatus can additionally reproduce the sub video SUBVD and the sub audio SUBAD simultaneously when reproducing the main video MANVD and the main audio MANVD. The primary audio video PRMAV can be recorded on the information storage medium DISC or the persistent storage PRSTR. The primary audio video PRMAV is included as part of the primary video set PRMVS. Combination playback of video and audio is limited by object conditions in the primary audio video PRMAV and the secondary video set SCDVS. The primary audio video PRMAV can have various data files used for the advanced application ADAPL and advanced subtitle ADSBT together. Streams included in these files are called advanced streams.

サブスティテュートオーディオSBTADは、プライマリーオーディオビデオPRMAVのメインオーディオMANADの置換えとして使用される。それは、メインオーディオMANADストリームのみから構成されている。サブスティテュートオーディオSBTAD再生時において、プライマリービデオセットPRMVS内のメインオーディオMANADを再生することはできない。前記サブスティテュートオーディオSBTADは、セカンダリービデオセットSCDVSに含まれる。   The substitute audio SBTAD is used as a replacement for the main audio MANAD of the primary audio video PRMAV. It consists only of the main audio MANAD stream. When the substitute audio SBTAD is played, the main audio MANAD in the primary video set PRMVS cannot be played. The substitute audio SBTAD is included in the secondary video set SCDVS.

サブスティテュートオーディオビデオSBTAVは、プライマリービデオセットPRMVSのメインビデオMANVDとメインオーディオMANADの両方を同時に交換して表示する時に利用される。前記サブスティテュートオーディオビデオSBTAVはメインビデオストリームMANVDを含むことが必須となる。また前記サブスティテュートオーディオビデオSBTAVは、メインオーディオストリームMANADを含んでもよい。前記プライマリービデオセットPRMVSと前記サブスティテュートオーディオビデオSBTAVを同時に再生表示することはできない。前記サブスティテュートオーディオビデオSBTAVはセカンダリービデオセットSCDVSの一種として含まれる。   The substitute audio video SBTAV is used when both the main video MANVD and the main audio MANAD of the primary video set PRMVS are exchanged and displayed at the same time. The substitute audio video SBTAV must include the main video stream MANVD. The substitute audio video SBTAV may include a main audio stream MANAD. The primary video set PRMVS and the substitute audio video SBTAV cannot be reproduced and displayed simultaneously. The substitute audio video SBTAV is included as a kind of secondary video set SCDVS.

アドバンストコンテンツADVCTのプライマリーエンハンストビデオオブジェクトP-EVOBはプライマリービデオセットPRMVSの再生データを表すデータストリームを意味している。プライマリービデオセットPRMVSの再生データのタイプとしては、メインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTが含まれる。本実施形態においてプライマリーエンハンストビデオオブジェクトP-EVOB内に含まれるパックとしては、現行DVD及びスタンダードコンテンツSTDCTと同様ナビゲーションパックNV_PCKを持つと共に、アドバンストストリームが記録されるアドバンストストリームパックが存在する。本実施形態においてメインオーディオMANADと副映像SUBPTと同様、サブビデオSUBVDとサブオーディオSUBADに対するオフセット情報がシンクロナスインフォメーションSYNCI内に記録されている。   The primary enhanced video object P-EVOB of the advanced content ADVCT means a data stream representing reproduction data of the primary video set PRMVS. The types of playback data of the primary video set PRMVS include main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT. In this embodiment, as a pack included in the primary enhanced video object P-EVOB, there is a navigation pack NV_PCK similar to the current DVD and standard content STDCT, and an advanced stream pack in which an advanced stream is recorded. In the present embodiment, as with the main audio MANAD and the sub-picture SUBPT, offset information for the sub-video SUBVD and the sub-audio SUBAD is recorded in the synchronous information SYNCI.

図12に示した各種オブジェクトストリームが、情報記憶媒体上に記録される時のファイル構造を図13に示す。本実施形態においてアドバンストコンテンツADVCTに関しては情報記憶媒体のルートディレクトリ直下にアドバンストコンテンツディレクトリADVCTを配置し、全ファイルをその中に記録している。アドバンストコンテンツディレクトリADVCTの下には再生に関する情報が記録されているプレイリストファイルPLLSTが存在し、それと同時にアドバンストアプリケーションに関する情報を記録するアドバンストアプリケーションディレクトリADAPLとプライマリービデオセットに関する情報を記録するプライマリービデオセットディレクトリPRMVSとセカンダリービデオセットに関する情報を記録するセカンダリービデオセットディレクトリSCDVSと、アドバンストサブタイトルに関する情報を記録するアドバンストサブタイトルディレクトリADSBTが記録されている。   FIG. 13 shows a file structure when the various object streams shown in FIG. 12 are recorded on the information storage medium. In the present embodiment, with respect to the advanced content ADVCT, the advanced content directory ADVCT is arranged directly under the root directory of the information storage medium, and all files are recorded therein. Under the advanced content directory ADVCT, there is a playlist file PLLST in which information about playback is recorded, and at the same time, an advanced application directory ADAPL that records information about advanced applications and a primary video set directory that records information about primary video sets. A secondary video set directory SCDVS for recording information on the PRMVS and the secondary video set, and an advanced subtitle directory ADSBT for recording information on the advanced subtitle are recorded.

アドバンストアプリケーションディレクトリADAPLの下には、アドバンストアプリケーションに関する管理情報が記録されているアドバンストナビゲーションディレクトリADVNVとアドバンストアプリケーションで使われる各種アドバンストエレメント(オブジェクト情報など)に関する情報が記録されているアドバンストエレメントディレクトリADVELが存在している。前記アドバンストナビゲーションディレクトリADVNVには、アドバンストアプリケーション内で使用される各種管理情報間の関係や、ネットワークダウンロードに必要な情報リストがまとめて記録されているマニュフェストに関するマニュフェストファイルMNFST、ページレイアウトなどに関するマークアップが記録されているマークアップファイルMRKUP、スクリプトコマンドが記録されているスクリプトファイルSCRPTが存在する。また、アドバンストエレメントディレクトリADVELには、静止画像を記録する静止画ファイルIMAGE、イフェクトオーディオを記録するイフェクトオーディオファイルEFTAD、フォント情報を記録するフォントファイルFONTとその他ファイルOTHERが存在する。   Under the advanced application directory ADAPL, there are an advanced navigation directory ADVNV in which management information related to the advanced application is recorded and an advanced element directory ADVEL in which information about various advanced elements (object information, etc.) used in the advanced application is recorded. is doing. In the advanced navigation directory ADVNV, there are markups regarding the relationship between various management information used in the advanced application, the manifest file MNFST related to the manifest in which the information list necessary for network download is recorded, and the page layout. There are recorded markup file MRKUP and script file SCRPT in which script commands are recorded. The advanced element directory ADVEL includes a still image file IMAGE for recording a still image, an effect audio file EFTAD for recording effect audio, a font file FONT for recording font information, and another file OTHER.

プライマリービデオセットディレクトリPRMVSの下には、プライマリーオーディオビデオディレクトリPRMAVが存在し、プライマリーオーディオビデオのエンハンストビデオオブジェクトに関する属性情報や管理情報が記録されているビデオタイトルセットインフォメーションに関する情報を記録するビデオタイトルセットインフォメーションファイルADVTSI、プライマリービデオセットの時間情報からアドレス情報に変換するタイムマップを記録するプライマリービデオセットのタイムマップファイルPTMAPとプライマリーエンハンストビデオオブジェクトを記録するプライマリーエンハンストビデオオブジェクトファイルP-EVOBが存在する。   A primary audio video directory PRMAV exists under the primary video set directory PRMVS, and video title set information that records information about video title set information in which attribute information and management information about the enhanced video object of the primary audio video is recorded. There are a file ADVTSI, a primary video set time map file PTMAP for recording a time map for converting the time information of the primary video set into address information, and a primary enhanced video object file P-EVOB for recording the primary enhanced video object.

セカンダリービデオセットディレクトリSCDVSの下には、サブスティテュートオーディオディレクトリSBTADとセカンダリーオーディオビデオディレクトリSCDAVが存在し、セカンダリーオーディオビデオディレクトリSCDAVの下にはセカンダリービデオセットの時間情報からアドレス情報に変換するタイムマップを記録するセカンダリービデオセットのタイムマップファイルSTMAPとセカンダリーエンハンストビデオオブジェクトを記録するセカンダリーエンハンストビデオオブジェクトファイルS-EVOBが存在する。また、サブスティテュートオーディオディレクトリSBTADの下にもセカンダリービデオセットの時間情報からアドレス情報に変換するタイムマップファイルSTMAPとセカンダリーエンハンストビデオオブジェクトファイルS-EVOBを格納することができる。   Substitute audio directory SBTAD and secondary audio video directory SCDAV exist under secondary video set directory SCDVS. Under secondary audio video directory SCDAV, a time map for converting the time information of the secondary video set into address information is recorded. A secondary video set time map file STMAP and a secondary enhanced video object file S-EVOB for recording a secondary enhanced video object. In addition, a time map file STMAP for converting the time information of the secondary video set into address information and the secondary enhanced video object file S-EVOB can be stored under the substitute audio directory SBTAD.

アドバンストサブタイトルディレクトリADSBTの下には、アドバンストサブタイトルに関する管理情報が記録されるアドバンストナビゲーションディレクトリADVNVとアドバンストサブタイトルのエレメント情報であるアドバンストエレメントディレクトリADVELが存在する。前記アドバンストナビゲーションディレクトリADVNVには、アドバンストサブタイトルのマニュフェストファイルMNFSTSとアドバンストサブタイトルのマークアップファイルMRKUPSが存在する。前記アドバンストサブタイトルのマニュフェストファイルMNFSTSには、アドバンストサブタイトルに関係する各種管理情報間の関係や、ネットワークダウンロードに必要な情報が記録されている。また前記アドバンストサブタイトルのマークアップファイルMRKUPS内にはアドバンストサブタイトルの画面上の表示位置などを指定するマークアップ情報が記録されている。また、アドバンストエレメントディレクトリADVELには、アドバンストサブタイトルのフォント情報を記録するアドバンストサブタイトルのフォントファイルFONTSが存在する。   Under the advanced subtitle directory ADSBT, there are an advanced navigation directory ADVNV in which management information related to the advanced subtitle is recorded, and an advanced element directory ADVEL that is element information of the advanced subtitle. The advanced navigation directory ADVNV includes an advanced subtitle manifest file MNFSTS and an advanced subtitle markup file MRKUPS. In the advanced subtitle manifest file MNFSTS, relationships between various management information related to the advanced subtitle and information necessary for network download are recorded. In the advanced subtitle markup file MRKUPS, markup information for specifying the display position of the advanced subtitle on the screen is recorded. The advanced element directory ADVEL includes an advanced subtitle font file FONTS for recording advanced subtitle font information.

アドバンストコンテンツディレクトリADVCTの名前及びそれに含まれる各ディレクトリとファイル名は、DキャラクターズまたはD1キャラクターズで記載される。また、このアドバンストコンテンツディレクトリADVCTの下にサブディレクトリを配置するが、このサブディレクトリの階層の深さは8階層以下とし、トータルサブディレクトリの数は本実施形態では512以下に設定する。仮に余りにディレクトリが深い場合、またはトータルサブディレクトリの数が多い場合はアクセス性が低下する。従って本実施形態では、階層の数や、ディレクトリの数を制限することでアクセスの高速性を確保することができる。   The name of the advanced content directory ADVCT and each directory and file name included therein are described in D characters or D1 characters. A subdirectory is arranged under the advanced content directory ADVCT. The subdirectory has a hierarchy depth of 8 or less, and the total number of subdirectories is set to 512 or less in this embodiment. If the directory is too deep, or if the total number of subdirectories is large, the accessibility is degraded. Therefore, in this embodiment, it is possible to secure high speed access by limiting the number of hierarchies and the number of directories.

図13に示すアドバンストコンテンツディレクトリADVCT以下に記録することのできるトータルファイル数は512×2047個以下とし、各ディレクトリ内に記録できるファイル数は2048ファイル以下に設定する。また、ファイル名としては各ファイル名の後ろにピリオド“.”を配置し、ピリオド“.”の後ろに拡張子を配置する構造にする。前記アドバンストコンテンツディレクトリADVCTは、情報記録媒体のルートディレクトリ直下に記録され、このアドバンストコンテンツディレクトリADVCTの直下にプレイリストファイルPLLSTが記録される。   The total number of files that can be recorded under the advanced content directory ADVCT shown in FIG. 13 is 512 × 2047 or less, and the number of files that can be recorded in each directory is set to 2048 files or less. The file name has a structure in which a period “.” Is placed after each file name and an extension is placed after the period “.”. The advanced content directory ADVCT is recorded directly under the root directory of the information recording medium, and a playlist file PLLST is recorded directly under the advanced content directory ADVCT.

このプレイリストファイルPLLSTは情報記憶媒体上に複数個記録することができる。プレイリストファイルPLLSTは2種類のプレイリストファイルPLLSTを設定可能であり、情報再生装置が直接再生時にアクセスするプレイリストファイルPLLSTに対してはファイル名として “VPLIST%%.XML”の名前にし、情報再生装置が直接アクセスしないプレイリストPLLSTのファイル名を “APLIST&&.XML”という名前に設定する。ここにおいて“%%”と“&&”は00から99までの数字が入る。   A plurality of playlist files PLLST can be recorded on the information storage medium. The playlist file PLLST can set two types of playlist file PLLST. For the playlist file PLLST that the information playback device accesses directly during playback, the file name is “VPLIST %%. XML” and the information Set the name of the playlist PLLST that is not directly accessed by the playback device to the name “APLIST &&. XML”. Here, “%%” and “&&” are numbers from 00 to 99.

図13に示したアドバンストビデオタイトルセットインフォメーションファイルADVTSIのファイル名は、“AVI00001.IFO”という名前にする。また、プライマリーエンハンストビデオオブジェクトファイルP-EVOBおよびセカンダリーエンハンストビデオオブジェクトファイルS-EVOBの拡張子はEVOと設定する。また、プライマリービデオセットのタイムマップファイルPTMAPとセカンダリービデオセットのタイムマップファイルSTMAPの拡張子は、“IFO”に設定する。   The file name of the advanced video title set information file ADVTSI shown in FIG. 13 is “AVI00001.IFO”. The extensions of the primary enhanced video object file P-EVOB and the secondary enhanced video object file S-EVOB are set to EVO. The extensions of the time map file PTMAP of the primary video set and the time map file STMAP of the secondary video set are set to “IFO”.

前記プライマリービデオセットタイムマップファイルPTMAPとセカンダリービデオセットのタイムマップファイルSTMAPファイルは、999以下のファイル数にしなければならない。このようにタイムマップファイルの数の上限を規定することにより、エンハンストオブジェクトデータEVOBへのアクセス制御の高速化を保証することができる。   The primary video set time map file PTMAP and the secondary video set time map file STMAP file should have a file number of 999 or less. By defining the upper limit of the number of time map files in this way, it is possible to guarantee the speed of access control to the enhanced object data EVOB.

アドバンストコンテンツ内のデータ構造例を図14に示す。   An example of the data structure in the advanced content is shown in FIG.

スタンダードコンテンツSTDCTが実現するオーディオビデオの表現形式をさらに拡張し、かつインタラクティブな操作が可能にするためアドバンストコンテンツADVCTが本実施形態では設定されている。   The advanced content ADVCT is set in the present embodiment in order to further expand the audio video expression format realized by the standard content STDCT and enable interactive operation.

アドバンストコンテンツADVCTはプレイリストPLLSTと図12に示すプライマリービデオセットPRMVS、セカンダリービデオセットSCDVS、アドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTから構成されている。図14に示すプレイリストPLLSTは、各種オブジェクト情報の再生方法に関する情報が記録されており、それらの情報は図13に示すようにアドバンストコンテンツディレクトリADVCTの下に1個のプレイリストファイルPLLSTとして記録されている。   The advanced content ADVCT includes a playlist PLLST, a primary video set PRMVS, a secondary video set SCDVS, an advanced application ADAPL, and an advanced subtitle ADSBT shown in FIG. The playlist PLLST shown in FIG. 14 records information related to the reproduction method of various object information, and such information is recorded as one playlist file PLLST under the advanced content directory ADVCT as shown in FIG. ing.

プレイリストPLLSTもしくはそれが記録されているプレイリストファイルPLLSTはXMLにより記述され、情報記憶媒体内に1以上のプレイリストファイルPLLSTとして記録されている。本実施形態におけるカテゴリー2もしくはカテゴリー3に属するアドバンストコンテンツADVCTが記録されている情報記憶媒体においては、情報記憶媒体挿入直後に情報再生装置は前記プレイリストファイルPLLSTの検索を行うようになっている。本実施形態において、プレイリストファイルPLLSTは以下の情報を含んでいる。   The playlist PLLST or the playlist file PLLST in which it is recorded is described in XML, and is recorded as one or more playlist files PLLST in the information storage medium. In the information storage medium in which the advanced content ADVCT belonging to category 2 or category 3 is recorded in the present embodiment, the information reproducing apparatus searches the playlist file PLLST immediately after the information storage medium is inserted. In the present embodiment, the playlist file PLLST includes the following information.

1)オブジェクトマッピングインフォメーションOBMAPI
オブジェクトマッピングインフォメーションOBMAPIは、プライマリービデオセットPRMVS、セカンダリービデオセットSCDVS、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTなどのオブジェクトに関する再生情報として設定される。本実施形態においては前記各オブジェクトデータの再生タイミングは、後述するタイトルタイムライン上にマッピングされる形で記載される。前記オブジェクトマッピングインフォメーションOBMAPIにおいてプライマリービデオセットPRMVSや、セカンダリービデオセットSCDVSの配置場所はそれらのタイムマップファイルPTMAPまたはSTMAPが存在する場所(ディレクトリあるいはURL)を参照することにより指定される。また、前記オブジェクトマッピングインフォメーションOBMAPIにおいて、アドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTは、それらに対応したマニュフェストファイルMNFSTあるいはMNFSTSが配置されている場所(ディレクトリまたはURL)を指定することにより決定される。
1) Object mapping information OBMAPI
The object mapping information OBMAPI is set as reproduction information related to objects such as the primary video set PRMVS, the secondary video set SCDVS, the advanced application ADAPL, and the advanced subtitle ADSBT. In the present embodiment, the reproduction timing of each object data is described in a form mapped on a title timeline described later. In the object mapping information OBMAPI, the location of the primary video set PRMVS and the secondary video set SCDVS is specified by referring to the location (directory or URL) where the time map file PTMAP or STMAP exists. In the object mapping information OBMAPI, the advanced application ADAPL and the advanced subtitle ADSBT are determined by designating the location (directory or URL) where the corresponding manifest file MNFST or MNFSTS is located.

2)トラックナンバーアサイメントインフォメーション
本実施形態においては、オーディオストリームや副映像ストリームを複数持つことが許されているが、プレイリストPLLST上に何番目のストリームデータを表示するかを表す情報が記載される。これら何番目のストリームが使用されるかという情報は、トラック番号として記述される。この対象となるトラック番号としては、ビデオストリームに対するビデオトラック番号、サブビデオストリームに対するサブビデオトラック番号、オーディオストリームに対するオーディオトラック番号、サブオーディオストリームに対するサブオーディオトラック番号、サブタイトルストリームに対応するサブタイトルトラック番号と、アプリケーションストリームに対応するアプリケーショントラック番号が設定される。
2) Track number assignment information In this embodiment, it is allowed to have a plurality of audio streams and sub-picture streams, but information indicating what number of stream data is displayed on the playlist PLLST is described. The Information on which number of these streams is used is described as a track number. The target track numbers include the video track number for the video stream, the sub video track number for the sub video stream, the audio track number for the audio stream, the sub audio track number for the sub audio stream, and the subtitle track number corresponding to the subtitle stream. The application track number corresponding to the application stream is set.

3)トラックナビゲーションインフォメーションTRNAVI
このトラックナビゲーションインフォメーションTRNAVIは、前記アサインされたトラックナンバーに対する関連情報を記載しているものであり、トラック番号毎の属性情報がリストとして記録されユーザーの選択への便宜を図っている。例えばトラック番号毎に言語コードなどが前記ナビゲーションインフォメーションに記録され、トラック番号1番が日本語、トラック番号2番が英語、トラック番号3番が中国語など前記トラックナビゲーションインフォメーションTRNAVIを利用することにより、ユーザーが好みの言語を即座に判定しやすくしている。
3) Track navigation information TRNAVI
The track navigation information TRNAVI describes related information for the assigned track number, and attribute information for each track number is recorded as a list for convenience of user selection. For example, by using the track navigation information TRNAVI such as language code for each track number recorded in the navigation information, track number 1 in Japanese, track number 2 in English, track number 3 in Chinese, etc. It makes it easy for users to quickly determine their preferred language.

4)リソースインフォメーションRESRCI
このリソースインフォメーションRESRCIは、ファイルキャッシュ内にいつまでにリソースファイルを転送しなければいけないかなどのタイミング情報を示している。また、このリソース内インフォメーションにはアドバンストアプリケーションADAPL内においていつ各リソースファイルを参照するかのタイミングなども記載されている。
4) Resource information RESRCI
This resource information RESRCI indicates timing information such as when the resource file must be transferred into the file cache. In addition, the information in the resource also describes when to refer to each resource file in the advanced application ADAPL.

5)プレイバックシーケンスインフォメーションPLSQI
前記プレイバックシーケンスインフォメーションPLSQIは、例えば1個のタイトル内のチャプター情報など、ユーザーがチャプター位置へのジャンプ処理がしやすいような情報が記録されている。このプレイバックシーケンスインフォメーションPLSQIは、タイトルタイムラインTMLEにおける時刻指定ポイントとして表示されている。
5) Playback sequence information PLSQI
In the playback sequence information PLSQI, information that makes it easy for the user to jump to the chapter position, such as chapter information in one title, is recorded. This playback sequence information PLSQI is displayed as a time designation point in the title timeline TMLE.

6)システムコンフィギュレーションインフォメーション
システムコンフィギュレーションインフォメーションは、例えばインターネット経由でファイルキャッシュにデータを格納する時に必要なデータサイズを表すストリーミングバッファサイズなどのシステムを構成するために必要な構造的な情報が記録されている。
6) System configuration information In the system configuration information, structural information necessary for configuring the system such as a streaming buffer size indicating a data size necessary for storing data in a file cache via the Internet is recorded. ing.

図14では、各オブジェクトへのプレイリストPLLSTでのデータ参照方法を示している。例えばプレイリストPLLST上で特定のプライマリーエンハンストオブジェクトP-EVOBを再生したい場合には、その属性情報が記録されているエンハンストビデオオブジェクトインフォメーションEVOBIを参照した後、プライマリーエンハンストビデオオブジェクトP-EVOBにアクセスする必要がある。またプレイリストPLLSTでは、プライマリーエンハンストビデオオブジェクトP-EVOBの再生範囲をタイムライン上で時間情報として規定している。そのため指定された時間に対する情報記憶媒体上のアドレス位置に変換するツールとして、プライマリービデオセットのタイムマップPTMAPが最初に参照される必要がある。同様にセカンダリーエンハンストビデオオブジェクトS-EVOBの再生範囲もプレイリストPLLST上では時間情報で記載されており、その範囲の情報記憶媒体上でのセカンダリーエンハンストビデオオブジェクトS-EVOBの記録場所を探すために、最初にセカンダリービデオセットSCDVSのタイムマップSTMAPが参照される。また、アドバンストアプリケーションADAPLのデータは図12に示すように、情報再生装置で使われる前に必ずファイルキャッシュ上に格納される必要がある。そのため、アドバンストアプリケーションADAPLの各種データを使用する場合には、プレイリストPLLSTからマニュフェストファイルMNFSTを参照し、マニュフェストファイルMNFST内に記載された各種リソースファイル(前記リソースファイルの保存場所とリソースファイル名も前記マニュフェストファイルMNFST内に記載されている)をファイルキャッシュFLCCH(データキャッシュDTCCH)上に転送する必要がある。同様にアドバンストサブタイトルADSBTの各種データを使用する場合も、事前にファイルキャッシュFLCCH(データキャッシュDTCCH)上での格納が必要となるため、アドバンストサブタイトルADSBTのマニュフェストMNFSTSを利用してファイルキャッシュFLCCH(データーキャッシュDTCCH)へのデータ転送が可能となる。アドバンストサブタイトルADSBT内のマークアップMRKUPSにより、画面上でのアドバンストサブタイトルADSBTの表示場所と表示タイミングを知ることができるとともに、アドバンストサブタイトルADSBT情報を画面上に表示する時にアドバンストサブタイトルADSBTのフォントFONTSの情報を利用できる。   FIG. 14 shows a data reference method in the playlist PLLST for each object. For example, to play a specific primary enhanced object P-EVOB on the playlist PLLST, it is necessary to access the primary enhanced video object P-EVOB after referring to the enhanced video object information EVOBI in which the attribute information is recorded There is. In the playlist PLLST, the playback range of the primary enhanced video object P-EVOB is defined as time information on the timeline. Therefore, it is necessary to first refer to the time map PTMAP of the primary video set as a tool for converting the address position on the information storage medium for the specified time. Similarly, the playback range of the secondary enhanced video object S-EVOB is also described as time information on the playlist PLLST, and in order to find the recording location of the secondary enhanced video object S-EVOB on the information storage medium in that range, First, the time map STMAP of the secondary video set SCDVS is referred to. Further, as shown in FIG. 12, the data of the advanced application ADAPL must be stored on the file cache before being used in the information reproducing apparatus. Therefore, when using various data of the advanced application ADAPL, refer to the manifest file MNFST from the playlist PLLST, and various resource files described in the manifest file MNFST (the storage location of the resource file and the resource file name are also described above). It is necessary to transfer the file (described in the manifest file MNFST) onto the file cache FLCCH (data cache DTCCH). Similarly, when using various data of the advanced subtitle ADSBT, storage in the file cache FLCCH (data cache DTCCH) is required in advance. DTCCH) can be transferred. The markup MRKUPS in the advanced subtitle ADSBT allows you to know the display location and display timing of the advanced subtitle ADSBT on the screen. Available.

プライマリービデオセットPRMVSを表示するにはタイムマップPTMAPを参照し、エンハンストビデオオブジェクトインフォメーションEVOBIで定義されたプライマリーエンハンストビデオオブジェクトP-EVOBにアクセス処理をする必要がある。   In order to display the primary video set PRMVS, it is necessary to refer to the time map PTMAP and perform access processing to the primary enhanced video object P-EVOB defined in the enhanced video object information EVOBI.

図15ではネットワークサーバーNTSRVから情報記録再生装置1までのネットワーク経路が光ケーブル12を介して家庭内のルーター11を経由し、家庭内で無線LANによりデータ接続されている例で示してあるが、これに限らず本実施形態において別経由でのネットワーク経路を有してもよい。また図15では情報記録再生装置1としてパーソナルコンピューターの図面を書いているが、これに限らず本実施形態においては情報記録再生装置として家庭用レコーダー単体または家庭用プレーヤー単体として設定することが可能である。また、無線を使わず直接有線でモニターに表示してもよい。   FIG. 15 shows an example in which the network path from the network server NTSRV to the information recording / reproducing apparatus 1 is connected via the optical cable 12 via the router 11 in the home and connected to the home via a wireless LAN. However, the present embodiment is not limited to this, and may have a network route via another route. In FIG. 15, a drawing of a personal computer is written as the information recording / reproducing apparatus 1. However, the present invention is not limited to this. In this embodiment, the information recording / reproducing apparatus can be set as a home recorder alone or a home player alone. is there. Further, it may be displayed directly on a monitor without using wireless.

本実施形態において、図12に示すセカンダリービデオセットSCDVSとアドバンストアプリケーションADAPL及びアドバンストサブタイトルADSBTの情報は、事前に図15に示すネットワークサーバーNTSRVに保存されており、それらの情報が光ケーブル12を返して家庭内に配信されることが可能となっている。光ケーブル12から送られた前期各種データは家庭内でルーター11を経由して情報記録再生装置1へ無線データ17の形で転送される。ルーター11は無線LAN制御部7-2とデータマネージャー9及びネットワーク制御部8から構成され、ネットワーク制御部8によりネットワークサーバーNTSRVとの間のデータ更新を制御し、無線LAN制御部7-2により家庭内無線LANへデータ転送する。それらのデータの転送処理をデータマネージャー9が制御している。ルーター11から無線データ17に乗せられて送られてきたセカンダリービデオセットSCDVS、アドバンストアプリケーションADAPL、及びアドバンストサブタイトルADSBTの各種コンテンツは、無線LAN制御部7-1でデータを受けた後アドバンストコンテンツ再生部ADVPL内に送られ、一部は図16に示すデータキャッシュDTCCHに保存される。本実施形態の情報再生装置は、アドバンストコンテンツADVCTを再生するアドバンストコンテンツ再生部ADVPLとスタンダードコンテンツSTDCTを再生するスタンダードコンテンツ再生部STDPLと録画可能な情報記憶媒体DISCもしくはハードディスク装置6に映像録画を行い、そこから再生が可能な録画再生処理部4が内蔵されている。それらの再生部及び録画再生処理部はメインCPU5により有機的に制御される。図15に示すように、情報記憶媒体DISCは情報記録再生部2の中で再生もしくは情報の記録が行われる。本実施形態において、アドバンストコンテンツ再生部ADVPLが再生対象とするメディアは前記情報記録再生部2やパーシステントストレージドライブ3(固定形あるいは携帯形フラッシュメモリのドライブ)からの情報の再生を前提としている。また本実施形態では前述したように、ネットワークサーバーNTSRVに記録されたデータの再生も可能となっている。この場合には前述したようにネットワークサーバーNTSRVに保存されているデータが光ケーブル12を経由し、ルーター11内のネットワーク制御からルーター11内の無線LAN制御部7-2を経由し、無線データ17の形で転送され無線LAN制御部7-1を経由してアドバンストコンテンツ再生部ADVPLへ情報が転送される。アドバンストコンテンツ再生部ADVPLで再生される映像情報は、ディスプレイ13に表示することが可能であるか、より大画面で表示したいというユーザー要求に合わせ無線LAN制御部7-1から無線データ18の形で大画面テレビモニター15に映し出されることが可能となる。大画面モニター15には映像処理部24、映像表示部21、無線LAN制御部7-3が内蔵されており無線データ18は、前記無線LAN制御部7-3で受信した後映像処理部24で映像処理し、映像表示部21を返して大画面テレビモニター15に表示されるとともにスピーカー16-1、16-2で音声出力される。   In this embodiment, information on the secondary video set SCDVS, the advanced application ADAPL, and the advanced subtitle ADSBT shown in FIG. 12 is stored in advance in the network server NTSRV shown in FIG. It is possible to be distributed within. Various data in the previous term sent from the optical cable 12 is transferred in the form of wireless data 17 to the information recording / reproducing apparatus 1 via the router 11 at home. The router 11 includes a wireless LAN control unit 7-2, a data manager 9, and a network control unit 8. The network control unit 8 controls data update with the network server NTSRV, and the wireless LAN control unit 7-2 controls the home. Transfer data to the internal wireless LAN. The data manager 9 controls such data transfer processing. Various contents of the secondary video set SCDVS, advanced application ADAPL, and advanced subtitle ADSBT sent on the wireless data 17 from the router 11 are received by the wireless LAN control unit 7-1 and then the advanced content playback unit ADVPL And a part is stored in the data cache DTCCH shown in FIG. The information playback apparatus of the present embodiment performs video recording on the advanced content playback unit ADVPL that plays back the advanced content ADVCT, the standard content playback unit STDPL that plays back the standard content STDCT, and the recordable information storage medium DISC or the hard disk device 6, A recording / playback processing unit 4 capable of playback from there is incorporated. Those playback units and recording / playback processing units are organically controlled by the main CPU 5. As shown in FIG. 15, the information storage medium DISC is reproduced or recorded in the information recording / reproducing unit 2. In the present embodiment, the media to be played by the advanced content playback unit ADVPL is premised on the playback of information from the information recording / playback unit 2 or persistent storage drive 3 (fixed or portable flash memory drive). In the present embodiment, as described above, data recorded on the network server NTSRV can be reproduced. In this case, as described above, the data stored in the network server NTSRV passes through the optical cable 12, passes from the network control in the router 11 to the wireless LAN control unit 7-2 in the router 11, and Is transferred to the advanced content playback unit ADVPL via the wireless LAN control unit 7-1. The video information played back by the advanced content playback unit ADVPL can be displayed on the display 13 or in the form of wireless data 18 from the wireless LAN control unit 7-1 in response to a user request to display on a larger screen. It can be projected on the large screen TV monitor 15. The large screen monitor 15 includes a video processing unit 24, a video display unit 21, and a wireless LAN control unit 7-3. The wireless data 18 is received by the wireless LAN control unit 7-3 and then received by the video processing unit 24. The video is processed, and the video display unit 21 is returned to be displayed on the large-screen TV monitor 15 and also outputted as sound through the speakers 16-1 and 16-2.

図15に示したシステム説明図におけるアドバンストコンテンツ再生部ADVPLの内部構造について図16を用い以下に説明を行う。本実施形態において、アドバンスコンテンツ再生部ADVPLは下記の5つの論理的な機能モジュールから構成されている。   The internal structure of the advanced content playback unit ADVPL in the system explanatory diagram shown in FIG. 15 will be described below with reference to FIG. In the present embodiment, the advanced content playback unit ADVPL is composed of the following five logical function modules.

データアクセスマネージャーDAMNGは、アドバンストコンテンツADVCTが記録された外部の情報記録場所とアドバンストコンテンツ再生部ADVPL内の各モジュールとの間のデータのやりとりの管理に利用される。本実施形態ではアドバンストコンテンツADVCTの記録場所としてパーシステントストレージPRSTR、ネットワークサーバーNTSRVと情報記憶媒体DISCを前提としており、それらの情報がデータアクセスマネージャーDAMNGとやりとりされる。また各種アドバンストコンテンツADVCTの情報は、データアクセスマネージャーDAMNGを介して後述するナビゲーションマネージャーNVMNG、データキャッシュDTCCH、プレゼンテーションエンジンPRSENとの間のデータのやりとりを行う。   The data access manager DAMNG is used to manage data exchange between an external information recording location where the advanced content ADVCT is recorded and each module in the advanced content playback unit ADVPL. In this embodiment, the persistent storage PRSTR, the network server NTSRV, and the information storage medium DISC are premised as recording locations of the advanced content ADVCT, and the information is exchanged with the data access manager DAMNG. Information on various advanced contents ADVCT is exchanged with a navigation manager NVMNG, a data cache DTCCH, and a presentation engine PRSEN, which will be described later, via a data access manager DAMNG.

データキャッシュDTCCHは、アドバンストコンテンツ再生部ADVPLにおけるテンポラルなデータ保存場所(一時保存場所)として利用される。   The data cache DTCCH is used as a temporal data storage location (temporary storage location) in the advanced content playback unit ADVPL.

ナビゲーションマネージャーNVMNGは、アドバンストコンテンツ再生部ADVPLの全機能モジュールの制御を行い、それらはアドバンストアプリケーションADAPLの記載内容に応じて制御される。前記ナビゲーションマネージャーNVMNGは、ユーザーオペレーションUOPEとの制御も行う。前記ユーザーオペレーションUOPEは、例えば情報再生装置におけるフロントパネルのキーインとか、リモコンによるキーインなどによりユーザーオペレーションが発生する。これらの処理により発生するユーザーオペレーションUOPEから受け取った情報は、前記ナビゲーションマネージャーNVMNGにより処理される。   The navigation manager NVMNG controls all the functional modules of the advanced content playback unit ADVPL, which are controlled according to the contents described in the advanced application ADAPL. The navigation manager NVMNG also controls the user operation UOPE. The user operation UOPE is generated by, for example, a front panel key-in in an information reproducing apparatus or a key-in by a remote controller. Information received from the user operation UOPE generated by these processes is processed by the navigation manager NVMNG.

プレゼンテーションエンジンPRSENは、アドバンストコンテンツADVCTの表示再生を行う。   The presentation engine PRSEN displays and reproduces the advanced content ADVCT.

AVレンダラーAVRNDは他のモジュールから入力されたビデオ情報と音声情報の合成処理を行い、スピーカー16や大画面テレビモニター15などに対する外部への出力を行う。このとき利用される音声情報は単独ストリーム情報でもサブオーディオSUBADとメインオーディオMANADを混合されたオーディオ情報でもよい。   The AV renderer AVRND performs synthesis processing of video information and audio information input from other modules, and outputs them to the speakers 16 and the large-screen TV monitor 15 to the outside. The audio information used at this time may be single stream information or audio information in which the sub audio SUBAD and the main audio MANAD are mixed.

図1〜3に示すように、本実施形態による技術的工夫を行った結果得られる新たな効果に対する具体的な例を図17〜図19に表す。図1〜3の効果において、“ 5〕ネットワークを用いたディスク上の情報更新機能を持たせる ” 内の “ 5.1)オブジェクト情報の自動更新やディスク内管理情報の自動更新 ” という新たな効果を発揮する方法として本実施形態では図17〜図19に示すように、コマーシャルCM44やコマーシャル用の別画面32およびテロップCM43、上映予告41を常に最新の映像としてユーザーに供給することができるところに本実施形態の大きな特徴がある。   As shown in FIGS. 1-3, the specific example with respect to the new effect obtained as a result of performing the technical device by this embodiment is represented in FIGS. 1 to 3, the new effect “5.1) Automatic update of object information and automatic update of management information in disk” in “5] Provide information update function on disk using network” In this embodiment, as shown in FIGS. 17 to 19, the commercial CM 44, the separate commercial screen 32, the telop CM 43, and the screening notice 41 can be always supplied to the user as the latest video. There is a major feature of this embodiment.

上映予告41を常に最新の情報に変更させることにより、タイムリーな映画の上映予告PRがユーザーに対して可能となりユーザーを映画館に呼ぶきっかけをつくることができる。また本実施形態ではコマーシャルCM44、コマーシャル用の別画面32およびテロップCM43を本編31の再生にリンクして表示することにより、通常のテレビの放送のようにコマーシャルのスポンサーからスポンサー料を取り、それにより情報記憶媒体DISCのユーザーに対する販売価格を低く抑えるということが可能となる。映像情報にコマーシャルを入れるという概念は従来から多く提案されているが、本実施形態のようにネットワークサーバーNTSRVから適宜最新のコマーシャル情報を読み取り、情報記憶媒体DISCに記録されている本編31の上映とリンクして、コマーシャル情報を最新のコマーシャルを表示することに本実施形態の大きな技術的な特徴がある。最新の上映予告41やコマーシャル情報は図15に示すネットワークサーバーNTSRVに逐次更新保存され、情報記憶媒体DISC内に記録されている本編31の再生タイミングに合わせてネットワークダウンロードを行う。図17〜図19に示した各オブジェクトと図12に示す各オブジェクトとの間の関係を以下に示す。   By constantly changing the screening notice 41 to the latest information, a timely movie preview notice PR can be made available to the user, and an opportunity to call the user to the movie theater can be created. In this embodiment, the commercial CM 44, the commercial screen 32, and the telop CM 43 are linked to the playback of the main part 31 and displayed, so that the sponsor fee is taken from the commercial sponsor as in the case of normal television broadcasting. It becomes possible to keep the selling price for users of the information storage medium DISC low. The concept of putting commercials in video information has been proposed in the past, but as in this embodiment, the latest commercial information is read from the network server NTSRV as appropriate, and the main part 31 recorded on the information storage medium DISC A major technical feature of this embodiment is that the latest commercial information is displayed by linking. The latest screening notice 41 and commercial information are sequentially updated and stored in the network server NTSRV shown in FIG. 15, and network download is performed in accordance with the reproduction timing of the main part 31 recorded in the information storage medium DISC. The relationship between each object shown in FIGS. 17-19 and each object shown in FIG. 12 is shown below.

図17〜図19においていずれも本編31はプライマリービデオセットPRMVSの中のプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADから構成されている。上映予告41とコマーシャルCM44及びコマーシャル用の別画面32も情報記憶媒体DISC内のプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADとして記録されているが、情報記憶媒体DISC作成後特定の時間が経過した後はそれらの情報が表示するに当たらないほど古くなってしまう。その場合にはネットワークサーバーNTSRV内に保存されたセカンダリービデオセットSCDVSのセカンダリーオーディオビデオSCDAVにおけるサブビデオSUBVDとサブオーディオSUBADに置き換えられてコマーシャルCM44または、コマーシャル用の別画面32で表示される。本実施形態では予め情報記憶媒体DISCに記録されたコマーシャルCM44は、他の実施形態としてプライマリービデオセットPRMVSのプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADとして記録することも可能である。同様に上映予告41の情報も情報記憶媒体DISC内に記録する場合には、プライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADに記録するか、あるいはプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADに記録し、再生時に情報記憶媒体DISC作成から特定の時間を経過した後はセカンダリービデオセットSCDVSのセカンダリーオーディオビデオSCDAV内のサブビデオSUBVDとサブオーディオSUBADの情報としてネットワークサーバーNTSRVからダウンロードし、そのダウンロードした情報を表示するようにしている。それにより、本実施形態ではコマーシャルCM44、コマーシャル用の別画面32またはテロップCM43と上映予告41の情報を常に最新の形でユーザーに表示することができ、PR効果も向上させることができる。   17 to 19, the main part 31 is composed of a main video MANVD and a main audio MANAD of the primary audio video PRMAV in the primary video set PRMVS. Screening notice 41, commercial CM 44, and separate screen 32 for commercials are also recorded as sub video SUBVD and sub audio SUBAD of primary audio video PRMAV in primary video set PRMVS in information storage medium DISC, but created as information storage medium DISC After a certain amount of time has passed, the information is too old to be displayed. In this case, the sub video SUBVD and the sub audio SUBAD in the secondary audio video SCDAV of the secondary video set SCDVS stored in the network server NTSRV are replaced with the commercial CM 44 or the commercial separate screen 32. In this embodiment, the commercial CM 44 recorded in advance on the information storage medium DISC can be recorded as the main video MANVD and the main audio MANAD of the primary audio video PRMAV of the primary video set PRMVS as another embodiment. Similarly, when the information of the screening notice 41 is also recorded in the information storage medium DISC, it is recorded in the sub video SUBVD and the sub audio SUBAD of the primary audio video PRMAV in the primary video set PRMVS or the main of the primary audio video PRMAV. After recording a video MANVD and main audio MANAD and playing a specific time from the creation of the information storage medium DISC after playback, the network server NTSRV as information of the sub video SUBVD and sub audio SUBAD in the secondary audio video SCDAV of the secondary video set SCDVS The information downloaded is displayed. Thereby, in this embodiment, the information of the commercial CM 44, the separate screen 32 for commercials or the telop CM 43 and the screening notice 41 can be always displayed to the user, and the PR effect can be improved.

次に図17〜図19を用い、本実施形態における映像コンテンツの表示例の説明を行う。   Next, display examples of video content in the present embodiment will be described with reference to FIGS.

図17においては情報記憶媒体DISCを情報記録再生装置1に挿入すると、最初に詳細ナビの必要性説明映像42が表示される。詳細ナビゲーションの必要をユーザーが感じない場合にはそのままやり過ごすが、もしユーザーがこの情報記憶媒体DISCのアドバンストコンテンツADVCTを再生する方法の説明を知りたい場合には、詳細ナビの必要を入力することで図示していないが詳細ナビの使用説明を表示することができる。また、図19の場合には、詳細ナビの必要性説明映像42内に後述するヘルプキーの使い方を説明し、ヘルプアイコンを常に出すことでユーザーが必要な時にヘルプアイコンを指定し、使い方の説明を問い合わせることができる。   In FIG. 17, when the information storage medium DISC is inserted into the information recording / reproducing apparatus 1, a detailed navigation necessity explanation video 42 is displayed first. If the user does not feel the need for detailed navigation, he / she will do it as it is. Although not shown in the drawing, usage instructions for detailed navigation can be displayed. Further, in the case of FIG. 19, the use of the help key described later is explained in the necessity explanation video 42 of the detailed navigation, and the help icon is designated when the user needs it by always displaying the help icon. Can be inquired.

図17では、放送テレビ画面のように本編31の表示の途中で前述したコマーシャルCM44を挿入する形となっており、このコマーシャルCM44の表示方法及び表示タイミングは通常放送受信テレビで表示するコマーシャルの表示タイミング、表示方法と同じものを示している。また、図17では情報記憶媒体DISCのコンテンツプロバイダが上映する映画の近日の上映予告41を本編31の表示終了後に表示するようになっている。   In FIG. 17, the commercial CM 44 described above is inserted in the middle of the display of the main part 31 like a broadcast television screen, and the display method and display timing of the commercial CM 44 is the display of the commercial displayed on the normal broadcast receiving television. The same timing and display methods are shown. Also, in FIG. 17, an upcoming preview 41 of a movie to be screened by a content provider of the information storage medium DISC is displayed after the main part 31 is displayed.

図18では、テロップの形で最新のコマーシャル情報CM43が本編31の表示に重ね合わせて表示される。また、上記テロップCM43の表示情報を常に最新の情報にする方法として、本実施形態ではアドバンストサブタイトルADSBTを利用しネットワークダウンロードを活用しているところに大きな特徴がある。すなわち情報記憶媒体DISC内には初期の時点ではプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVの副映像SUBPT内にテロップ(流れるテキスト情報)の形でテロップCM43を表示している。次に情報記憶媒体DISC製造後、特定の時間経過後は最新のテロップCM43の情報をネットワークサーバーNTSRV内のアドバンストサブタイトルADSBTとして記録しておりネットワーク経由でデータを取込み、テロップCM43として表示している。   In FIG. 18, the latest commercial information CM 43 in the form of a telop is displayed superimposed on the display of the main part 31. In addition, as a method for constantly updating the display information of the telop CM43, the present embodiment is characterized in that the advanced subtitle ADSBT is used and network download is used. That is, in the information storage medium DISC, the telop CM43 is displayed in the form of a telop (flowing text information) in the sub-picture SUBPT of the primary audio video PRMAV in the primary video set PRMVS at an initial time. Next, after the production of the information storage medium DISC, after the elapse of a specific time, the latest telop CM43 information is recorded as the advanced subtitle ADSBT in the network server NTSRV, the data is taken in via the network, and is displayed as the telop CM43.

図19における映像コンテンツ表示例の説明を行う。図19では、詳細ナビの必要性説明映像42の直後に映画館で上映される上映予告41が表示され、上映予告41の表示後に始めて本編31が表示される形となっている。この場合、本編31とは別のコマーシャル用の別画面32が表示され、それと同時にヘルプアイコン33が表示されている。本実施形態において、本編31の内容はプライマリービデオセットPRMVS内のプライマリーオーディオビデオPRMAVのメインビデオMANVDとメインオーディオMANADとして情報記憶媒体DISC内に予め記録されている。別のコマーシャル用の別画面32は、情報記憶媒体内DISCではプライマリービデオセットPRMVSのプライマリーオーディオビデオPRMAVのサブビデオSUBVDとサブオーディオSUBADとして記録され、この情報が初期の時点ではユーザーに表示される。情報記憶媒体DISCの製造後特定の時間が経過した後では、本実施形態では別のコマーシャル用の別画面32は、更新された映像を表示することができる。その方法として、最新のコマーシャル用の別画面32の情報をネットワークサーバーNTSRV内にセカンダリービデオセットSCDVS内のセカンダリーオーディオビデオSCDAVのサブビデオSUBVDとサブオーディオSUBADとして保存しておきネットワークを経由して適宜ダウンロードし、ユーザーに表示する。また図19の実施形態では、ヘルプアイコン33はアドバンストアプリケーションADAPLの静止画IMAGEとスクリプトSCRPTで構成される。   A video content display example in FIG. 19 will be described. In FIG. 19, a screening notice 41 to be screened in a movie theater is displayed immediately after the detailed navigation necessity explanation video 42, and the main part 31 is displayed only after the screening notice 41 is displayed. In this case, another commercial screen 32 different from the main part 31 is displayed, and at the same time, a help icon 33 is displayed. In the present embodiment, the contents of the main part 31 are recorded in advance in the information storage medium DISC as the main video MANVD and main audio MANAD of the primary audio video PRMAV in the primary video set PRMVS. The separate screen 32 for another commercial is recorded as the sub video SUBVD and the sub audio SUBAD of the primary audio video PRMAV of the primary video set PRMVS in the DISC in the information storage medium, and this information is displayed to the user at an initial time. After a specific time has elapsed since the information storage medium DISC was manufactured, in the present embodiment, another commercial screen 32 can display an updated video. As a method, the information on the latest commercial screen 32 is saved in the network server NTSRV as the sub video SUBVD and sub audio SUBAD of the secondary audio video SCDAV in the secondary video set SCDVS, and downloaded as appropriate via the network. And display it to the user. In the embodiment of FIG. 19, the help icon 33 is composed of a still image IMAGE and a script SCRPT of the advanced application ADAPL.

図19における本編31とコマーシャル用の別画面32とヘルプアイコン33が同時に表示されているα点における表示画面の例を図20に示す。   FIG. 20 shows an example of a display screen at the point α where the main part 31, the separate commercial screen 32, and the help icon 33 in FIG. 19 are simultaneously displayed.

図20の左上が本編31を表示し右上にコマーシャル用の別画面32が表示され、下側にヘルプアイコン33が表示されている。図20の画面と図1〜3に示した本実施形態による技術的工夫を行った結果得られる新たな効果について以下に説明を行う。   The main part 31 is displayed on the upper left of FIG. 20, the separate screen 32 for commercials is displayed on the upper right, and the help icon 33 is displayed on the lower side. A new effect obtained as a result of the technical device according to the present embodiment shown in the screen of FIG. 20 and FIGS. 1 to 3 will be described below.

図1〜3に示すように本実施形態による技術的工夫を行った結果得られる新たな効果の “1〕ユーザーアクションに対する柔軟かつ印象的なリアクションを行う” については本実施形態を利用することにより、インターネットのホームページに近い柔軟な印象的な画面を作ることが可能となる。具体的な本実施形態による新たな効果の “ 1.4)PCのようなヘルプ ” や “ 1.5)メニューなどの使い方ガイド ” に対応したものが図20のヘルプアイコン33に対応する。この画面上でのヘルプアイコン33の画像はアドバンストアプリケーションADAPLの静止画IMAGEとしてデータが存在し、その情報は図13に示す情報記憶媒体DISC内のアドバンストコンテンツディレクトリADVCTの下のアドバンストアプリケーションディレクトリADAPL内のアドバンストエレメントディレクトリADVEL内に格納されている。ヘルプアイコン33をユーザーがクリックすると、ヘルプ対応画像が動き出すがそれに関するコマンド処理はアドバンストアプリケーションADAPL内のスクリプトSCRPTとして記録され、図13のアドバンストコンテンツディレクトリADVCTの下のアドバンストアプリケーションディレクトリADAPLの中にあるアドバンストナビゲーションディレクトリADVNVの下にスクリプトファイルSCRPTとして表示される。またこれらのヘルプアイコン33の静止画像やスクリプトの定義する領域の指定する情報が図13に示すマークアップファイルMRKUP内に記録され、これらの一連の情報間の関連付け情報(データダウンロードに必要な関連情報)が、マニュフェストファイルMNFST内に記録されている。図20に示すようなストップボタン34、プレイボタン35、FR(巻戻し)ボタン36、ポーズボタン37、FF(早送り)ボタン38などの情報もアドバンストアプリケーションADAPLとして分類され、それぞれのアイコンに対応した静止画像が図13の静止画ファイルIMAGE内に格納され、それぞれのボタンを指定した時の実行コマンドが図13のスクリプトファイル内に記録され、それらの領域指定がマークアップファイルMRKUP内に記録されている。   As shown in FIGS. 1 to 3, the new effect “1) Perform flexible and impressive reaction to user action” as a result of technical innovation according to this embodiment is used by using this embodiment. This makes it possible to create a flexible and impressive screen that is close to an Internet homepage. The one corresponding to “1.4) Help like PC” and “1.5) How to use menu etc.” of the new effect according to the present embodiment corresponds to the help icon 33 in FIG. The image of the help icon 33 on this screen has data as a still image IMAGE of the advanced application ADAPL, and the information is stored in the advanced application directory ADAPL under the advanced content directory ADVCT in the information storage medium DISC shown in FIG. It is stored in the advanced element directory ADVEL. When the user clicks on the help icon 33, a help-compatible image starts to move, but the command processing related to the image is recorded as a script SCRPT in the advanced application ADAPL, and is stored in the advanced application directory ADAPL under the advanced content directory ADVCT in FIG. It is displayed as a script file SCRPT under the navigation directory ADVNV. In addition, information specified by the still image of the help icon 33 and the area defined by the script is recorded in the markup file MRKUP shown in FIG. 13, and association information between these series of information (related information necessary for data download). ) Is recorded in the manifest file MNFST. Information such as the stop button 34, the play button 35, the FR (rewind) button 36, the pause button 37, and the FF (fast forward) button 38 as shown in FIG. 20 is also classified as the advanced application ADAPL, and the stationary corresponding to each icon. The image is stored in the still image file IMAGE in FIG. 13, the execution command when each button is designated is recorded in the script file in FIG. 13, and the area designation is recorded in the markup file MRKUP. .

図1〜3に示した本実施形態による技術的工夫を行った結果新たな効果の中での “ 3〕再生中の映像にかぶせて別情報を同時に表示する ” の中のとりわけ “ 3.1)マルチウィンドウによる複数映像を同時に表示する ” や “ 3.4)スクロールするテキストを映像にかぶせて同時表示する ” に対応した図20上の画面の説明を行う。   As a result of carrying out the technical contrivance according to the present embodiment shown in FIGS. 1 to 3, among other new effects, “3” Display different information simultaneously on the video being played back “3.1” The screen on FIG. 20 corresponding to “) Displaying multiple images simultaneously by multi-window” and “3.4) Displaying scrolling text on the image simultaneously” will be described.

現行DVDにおいては、1画面に1種類の映像しか表示することができない。それに対し本実施形態ではメインビデオMANVDとメインオーディオMANADと同時にサブビデオSUBVDとサブオーディオSUBADを表示することが可能となっている。すなわち図20における本編31は、プライマリービデオセットPRMVS内のメインビデオMANVDとメインオーディオMANADに対応し、右側のコマーシャル用の別画面32はサブビデオSUBVDとサブオーディオSUBADに対応し、2画面が同時に表示できる格好となっている。更に本実施形態では図20の右側に示すコマーシャル用の別画面32をセカンダリービデオセットSCDVSのサブビデオSUBVDとサブオーディオSUBADに置き換えて表示できるところに大きな特徴がある。すなわち、プライマリービデオセットPRMVSのプライマリーオーディオビデオ内のサブビデオSUBVDとサブオーディオSUBADは予め情報記憶媒体DISC内に記録されており、更新すべきセカンダリービデオセットSCDVSのサブビデオSUBVDとサブオーディオSUBADがネットワークサーバーNTSRV内に記録され、情報記憶媒体DISC作成直後に作成される場合には情報記憶媒体DISC内に事前に記録されたコマーシャル用の別画面32を表示し、情報記憶媒体DISC作成後特定の時間経過後には、コマーシャル用の別画面32を最新の映像と取り替えるために、ネットワークサーバーNTSRV内に記録されたセカンダリービデオセットSCDVS内のサブビデオSUBVDとサブオーディオSUBADをネットワーク経由でダウンロードし、取り替えて表示をする。これにより、常に最新のコマーシャル用の別画面32をユーザーに表示することができスポンサーのコマーシャル効果を上げることをできるため、スポンサーからの多額のコマーシャル量を徴収することにより、販売する情報記憶媒体DISCの価格を安く抑え、本実施形態における情報記憶媒体DISCの普及を促進することができる。また、それとは別に図20に示すテロップ文字39を本編31に重ねて表示することも可能となる。テロップ文字として、例えばニュースや天気予報など最新の情報をアドバンストサブタイトルADSBTの形でネットワークサーバーNTSRV上に保存しておき、適宜ネットワーク経由でダウンロードしつつ表示することでユーザーの利便性を大幅に向上させることが可能となる。なお、この時のテロップ文字の文字フォント情報は、図13に示すようにアドバンストサブタイトルディレクトリADSBT内のアドバンストエレメントディレクトリADVPL内のフォントファイルFONTSに記憶することができる。また、このテロップ文字39の大きさや本編31上での表示場所の情報は、図13のアドバンストサブタイトルディレクトリADSBTの下のアドバンストナビゲーションディレクトリADVNVの中のアドバンストサブタイトルADSBTのマークアップファイルMRKUPSに記録することができる。   In the current DVD, only one type of video can be displayed on one screen. On the other hand, in this embodiment, the sub video SUBVD and the sub audio SUBAD can be displayed simultaneously with the main video MANVD and the main audio MANAD. That is, the main part 31 in FIG. 20 corresponds to the main video MANVD and main audio MANAD in the primary video set PRMVS, and the separate commercial screen 32 corresponds to the sub video SUBVD and sub audio SUBAD, and two screens are displayed simultaneously. It is possible to dress. Furthermore, the present embodiment is characterized in that the commercial separate screen 32 shown on the right side of FIG. 20 can be replaced with the sub video SUBVD and sub audio SUBAD of the secondary video set SCDVS for display. That is, the sub video SUBVD and the sub audio SUBAD in the primary audio video of the primary video set PRMVS are recorded in advance in the information storage medium DISC, and the sub video SUBVD and the sub audio SUBAD of the secondary video set SCDVS to be updated are stored in the network server. If it is recorded in NTSRV and created immediately after creation of the information storage medium DISC, a separate commercial screen 32 recorded in advance in the information storage medium DISC is displayed, and a specific time has elapsed after the creation of the information storage medium DISC. Later, in order to replace the separate commercial screen 32 with the latest video, the sub video SUBVD and sub audio SUBAD in the secondary video set SCDVS recorded in the network server NTSRV are downloaded via the network, replaced and displayed. To do. As a result, the latest commercial screen 32 can always be displayed to the user and the commercial effect of the sponsor can be increased. Therefore, by collecting a large amount of commercials from the sponsor, the information storage medium DISC to be sold The price of the information storage medium DISC in the present embodiment can be promoted. In addition, it is also possible to display the telop character 39 shown in FIG. The latest information such as news and weather forecasts is saved on the network server NTSRV in the form of the advanced subtitle ADSBT as telop characters, and displayed while being downloaded via the network as appropriate, greatly improving user convenience. It becomes possible. Note that the character font information of the telop character at this time can be stored in the font file FONTS in the advanced element directory ADVPL in the advanced subtitle directory ADSBT as shown in FIG. The size of the telop character 39 and the information on the display location on the main volume 31 can be recorded in the markup file MRKUPS of the advanced subtitle ADSBT in the advanced navigation directory ADVNV under the advanced subtitle directory ADSBT in FIG. it can.

本実施形態におけるプレイリストPLLST内情報の概要について図21を用いて説明する。本実施形態におけるプレイリストPLLSTは、図13に示すように情報記憶媒体DISC内もしくはパーシステントストレージPRSTR内のアドバンストコンテンツディレクトリADVCTの直下に存在するプレイリストファイルPLLST内に記録され、アドバンストコンテンツADVCTの再生に関する管理情報が記録されている。プレイリストPLLST内にはプレイバックシーケンスインフォメーションPLSQIとオブジェクトマッピングインフォメーションOBMAPIおよびリソースインフォメーションRESRCIなどの情報が記録されている。プレイバックシーケンスインフォメーションPLSQIは、情報記憶媒体DISC内もしくはパーシステントストレージPRSTR内、ネットワークサーバーNTSRV内に存在するアドバンストコンテンツADVCTにおける各タイトルの情報とタイトル内で映像情報を細かく分割する各チャプターの切れ目位置情報が記録されている。オブジェクトマッピングインフォメーションOBMAPI内では各タイトル毎のそれぞれのオブジェクトの表示タイミングと、画面上の表示位置が管理されている。各タイトル毎にはタイトルタイムラインTMLEが設定されており、そのタイトルタイムラインTMLE上の時間情報を利用して、各オブジェクトの表示開始/終了タイミングが設定可能となっている。リソースインフォメーションRESRCIでは、各タイトル毎に画面に表示する前にデータキャッシュDTCCH(ファイルキャッシュFLCCH)内に格納する各オブジェクト情報の事前格納タイミングの情報が記録されており、例えばデータキャッシュDTCCH(ファイルキャッシュFLCCH)にローディングを開始するローディング開始時間LDSTTMやそれぞれのデータキャッシュDTCCH(ファイルキャッシュFLCCH)内での使用有効期間VALPRDなどの情報が記録されている。   An overview of the information in the playlist PLLST in the present embodiment will be described with reference to FIG. As shown in FIG. 13, the playlist PLLST in the present embodiment is recorded in the playlist file PLLST that exists directly under the advanced content directory ADVCT in the information storage medium DISC or in the persistent storage PRSTR, and plays the advanced content ADVCT. Management information about is recorded. Information such as playback sequence information PLSQI, object mapping information OBMAPI, and resource information RESRCI is recorded in the playlist PLLST. Playback sequence information PLSQI is information of each title in advanced content ADVCT existing in the information storage medium DISC or persistent storage PRSTR and in the network server NTSRV, and the break position information of each chapter that finely divides the video information within the title Is recorded. In the object mapping information OBMAPI, the display timing of each object for each title and the display position on the screen are managed. A title timeline TMLE is set for each title, and display start / end timing of each object can be set using time information on the title timeline TMLE. In the resource information RESRCI, information on the pre-storage timing of each object information stored in the data cache DTCCH (file cache FLCCH) before being displayed on the screen for each title is recorded. For example, the data cache DTCCH (file cache FLCCH ) Is recorded with information such as the loading start time LDSTTM for starting loading and the valid period VLPRD in each data cache DTCCH (file cache FLCCH).

図21に示すように本実施形態において表示対象となるオブジェクトの指定やその画面上の表示場所を指定する管理情報がプレイリストPLLSTと(マニュフェストファイルMNFST及びアドバンストサブタイトルADSBTのマニュファストMNFSTSを経由して)マークアップファイルMRKUP及びアドバンストサブタイトルのマークアップファイルMRKUPSの2段階に階層化され、プレイリストPLLST内において表示対象となるオブジェクトの表示タイミングをタイトルタイムラインTMLEに同期して設定されているところに大きな特徴がある。さらに、前記マークアップファイルMRKUPまたはアドバンストサブタイトルADSBTのマークアップファイルMRKUPSでも同様にタイトルタイムラインTMLEに同期して対象とするオブジェクトの表示タイミングが設定されるところに次の大きな特徴がある。更に本実施形態では前記表示するオブジェクトや表示場所を指定する管理情報であるプレイリストPLLSTとマークアップファイルMRKUP及びアドバンストサブタイトルADSBTのマークアップファイルMRKUPSの情報内容が同一の記載言語(XML)で記述されていることが次の特徴となっている。それによりアドバンストコンテンツADVCTの作成者の編集や変更の容易性が従来のDVD-Videoに比べて大幅に向上する。また他の効果としては再生場所のスキップ処理など、特殊再生時の表示処理を行うアドバンストコンテンツ再生部ADVPL内での処理の簡素化を図ることができる。   As shown in FIG. 21, management information for designating an object to be displayed and a display location on the screen is displayed in the present embodiment via the playlist PLLST (via the manifest file MNFST and the advanced subtitle ADSBT manifest MNFSTS. ) Markup file MRKUP and advanced subtitle markup file MRKUPS are hierarchized in two stages, and the display timing of objects to be displayed in the playlist PLLST is set in synchronization with the title timeline TMLE. There are features. Further, the markup file MRKUP or the markup file MRKUPS of the advanced subtitle ADSBT has the following major feature in that the display timing of the target object is similarly set in synchronization with the title timeline TMLE. Furthermore, in this embodiment, the information content of the playlist PLLST, which is the management information for specifying the object to be displayed and the display location, the markup file MRKUP, and the advanced subtitle ADSBT markup file MRKUPS is described in the same description language (XML). Is the next feature. This greatly improves the ease of editing and changing the creator of advanced content ADVCT compared to conventional DVD-Video. In addition, as another effect, it is possible to simplify processing in the advanced content playback unit ADVPL that performs display processing during special playback such as playback location skip processing.

図20を用いて上記本実施形態の特徴についての説明を行う。図20では本編31とコマーシャル用の別画面32と下側に記載されている各種アイコンボタンが画面上に表示されているが、プライマリービデオセットPRMVS内のメインビデオMANVDを本編31として画面の左上に表示し、及びその表示タイミングが前記プレイリストPLLSTに記載されている。またこの本編31の表示タイミングは、タイトルタイムラインTMLEに同期して設定されている。また例えばサブビデオSUBVDとして記録されているコマーシャル用の別画面32の表示場所と表示タイミングも、前述した同一のプレイリストPLLSTに記載されている。このコマーシャル用の別画面32の表示タイミングも同様のタイトルタイムラインTMLE上に同期して指定されている。現行DVD-Videoにおいては、例えば図20のヘルプアイコン33からFFボタン38までの画面に関しては、映像オブジェクト内に副映像SUBPTとして記録されており、ヘルプアイコン33からFFボタン38までの各ボタンを押した時のコマンド情報が同様に映像オブジェクト内のナビゲーションパックの中のハイライトインフォメーションHLIとして記録されている。その結果、コンテンツ作成者の編集や変更の容易性が損なわれるという問題があった。それに対して、本実施形態では図20のヘルプアイコン33からFFボタン38までの画面情報と対応したコマンド情報に対しては、アドバンストアプリケーションADAPLとして一括して見なされ、プレイリストPLLST上は前記一括されたアドバンストアプリケーションADAPLの表示タイミングと画面上の表示場所のみが指定される。前記一括されたアドバンストアプリケーションADAPLに関する情報は、画面上に表示する前に必ずファイルキャッシュFLCCH(データキャッシュDTCCH)にダウンロードしておく必要がある。プレイリストPLLST上では前記アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTに関するデータをダウンロードする時に必要な情報が記録されているマニュフェストファイルMNFST(MNFSTS)のファイル名とファイル保存場所のみが記述されている。図20のヘルプアイコン33からFFボタン38までの画面情報自体は、静止画ファイルIMAGEとしてアドバンストエレメントディレクトリADVEL内に保存されている(図13)。図20に示すヘルプアイコン33からFFボタン38までの各静止画像IMAGEの画面上の配置場所と表示タイミングを管理している情報がマークアップMRKUP内に記録されており、前記情報は図13において、アドバンストナビゲーションディレクトリADVNV内のマークアップMRKUPファイル内に記録されている。また、ヘルプアイコン33からFFボタン38までの各ボタンを押した時の制御情報(コマンド情報)は、図13のアドバンストナビゲーションディレクトリADVNV内のスクリプトファイルSCRPT内に保存されており、それらのスクリプトファイルSCRPTのファイル名とそのファイルの保存場所がマークアップファイルMRKUP(及びマニュフェストファイルMNFST内)に記載されている。図13では、各マークアップファイルMRKUP 、スクリプトファイルSCRPT、静止画ファイルIMAGEが情報記憶媒体DISC内に記録されているようになっているが、本実施形態にはそれに限らずそれらのファイルがネットワークサーバーNTSRV内やパーシステントストレージPRSTR内に保存されていてもよい。このように画面上の全体の配置と表示タイミングがプレイリストPLLSTで管理されているとともに、各種ボタンやアイコンの配置位置と表示タイミングがマークアップファイルMRKUPで管理されており、プレイリストPLLSTから前記マークアップMRKUPに対してはマニュフェストMNFSTを経由して指定する構造となっている。各種アイコンやボタン及びコマンド情報が映像オブジェクト内に入っている従来のDVD-Videoと比べそれぞれの映像とコマンド(スクリプト)が別ファイル化され、マークアップMRKUPで中間管理される構造にすることによりコンテンツ作成者の編集、変更容易性が大幅に向上する。また同様に図20に示すテロップ文字39に対しても、プレイリストPLLSTからはアドバンストサブタイトルのマニュフェストファイルMNFSTSを経由して、アドバンストサブタイトルのマークアップファイルMRKUPSのファイル名とファイル保存場所が指定される構造となっている(図13参照)。前記アドバンストサブタイトルのマークアップファイルMRKUPSは、情報記憶媒体DISC内に記録されているだけでなく、ネットワークサーバーNTSRV内やパーシステントストレージPRSTRに保存されることも本実施形態では可能となっている。   The features of the present embodiment will be described with reference to FIG. In FIG. 20, the main video 31, a separate screen 32 for commercials, and various icon buttons described at the bottom are displayed on the screen. The display and the display timing thereof are described in the playlist PLLST. Further, the display timing of the main part 31 is set in synchronization with the title timeline TMLE. Further, for example, the display location and display timing of the commercial separate screen 32 recorded as the sub video SUBVD are also described in the same playlist PLLST. The display timing of this separate screen 32 for commercials is also specified in synchronization with the similar title timeline TMLE. In the current DVD-Video, for example, the screen from the help icon 33 to the FF button 38 in FIG. 20 is recorded as a sub-picture SUBPT in the video object, and each button from the help icon 33 to the FF button 38 is pressed. Similarly, the command information is recorded as highlight information HLI in the navigation pack in the video object. As a result, there is a problem that the ease of editing and changing by the content creator is impaired. On the other hand, in this embodiment, the command information corresponding to the screen information from the help icon 33 to the FF button 38 in FIG. 20 is collectively regarded as the advanced application ADAPL, and is collectively represented on the playlist PLLST. Only the display timing of the advanced application ADAPL and the display location on the screen are specified. The information related to the batch advanced application ADAPL must be downloaded to the file cache FLCCH (data cache DTCCH) before being displayed on the screen. On the playlist PLLST, only the file name and file storage location of the manifest file MNFST (MNFSTS) in which information necessary for downloading data related to the advanced application ADAPL and the advanced subtitle ADSBT is described. The screen information itself from the help icon 33 to the FF button 38 in FIG. 20 is stored in the advanced element directory ADVEL as a still image file IMAGE (FIG. 13). Information for managing the arrangement location and display timing of each still image IMAGE from the help icon 33 to the FF button 38 shown in FIG. 20 is recorded in the markup MRKUP. It is recorded in the markup MRKUP file in the advanced navigation directory ADVNV. Control information (command information) when each button from the help icon 33 to the FF button 38 is pressed is stored in the script file SCRPT in the advanced navigation directory ADVNV in FIG. The file name and the storage location of the file are described in the markup file MRKUP (and in the manifest file MNFST). In FIG. 13, each markup file MRKUP, script file SCRPT, and still image file IMAGE are recorded in the information storage medium DISC. However, in this embodiment, these files are not limited to the network server. It may be stored in NTSRV or persistent storage PRSTR. In this way, the overall arrangement and display timing on the screen are managed by the playlist PLLST, and the arrangement position and display timing of various buttons and icons are managed by the markup file MRKUP. For up-MRKUP, it is specified via Manifest MNFST. Compared to the conventional DVD-Video in which various icons, buttons, and command information are contained in the video object, each video and command (script) is created as a separate file, and the content is managed by intermediate management with markup MRKUP. The ease of editing and changing the creator is greatly improved. Similarly, for the telop character 39 shown in FIG. 20, the playlist PLLST specifies the file name and file storage location of the advanced subtitle markup file MRKUPS via the advanced subtitle manifest file MNFSTS. (See FIG. 13). In this embodiment, the advanced subtitle markup file MRKUPS is not only recorded in the information storage medium DISC but also stored in the network server NTSRV or the persistent storage PRSTR.

本実施形態ではアドバンストコンテンツADVCTの再生時において、プレイリストPLLSTの使用目的は以下に述べるように2個存在する。第一の使用目的は情報再生装置1における初期時のシステム構造(データキャッシュDTCCH内の必要なメモリ領域の事前設定など)を定義するところにある。また他の目的は、アドバンストコンテンツADVCTにおける各種オブジェクトの再生方法を明示するところにある。プレイリストPLLSTのデータ構造は下記に示すような構造を持っている。   In the present embodiment, when the advanced content ADVCT is reproduced, there are two purposes for using the playlist PLLST as described below. The first purpose of use is to define an initial system structure in the information reproducing apparatus 1 (preliminary setting of a necessary memory area in the data cache DTCCH). Another object is to clearly show how to play various objects in the advanced content ADVCT. The data structure of the playlist PLLST has the following structure.

1、各タイトル毎のオブジェクトマッピングインフォメーションOBMAPI
・トラックナンバーアサイメント
・リソースインフォメーションRESRCI
2、各タイトル毎のプレイバックシーケンスインフォメーションPLSQI
3、アドバンストコンテンツADVCTの再生に関するシステムコンフィギュレーション
図21に示すリソースインフォメーションRESRCIの概要を以下に説明する。プレイリストPLLST内のオブジェクトマッピングインフォメーションOBMAPIにおいて、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの再生に必要な各情報が記録されているリソースファイルを、いつどのタイミングでデータキャッシュDTCCH(ファイルキャッシュFLCCH)に取り込むかの情報がリソースインフォメーションRESRCI内に記録されている。本実施形態においてリソースインフォメーションRESRCIには、下記の2種類のタイプが存在する。リソースインフォメーションRESRCIの第一のタイプはアドバンストアプリケーションADAPLに関するリソースインフォメーションRESRCIであり、他のタイプはアドバンストサブタイトルADSBTに関連したリソースインフォメーションRESRCIである。
1. Object mapping information for each title OBMAPI
・ Track number assignment ・ Resource information RESRCI
2. Playback sequence information PLSQI for each title
3. System Configuration for Playback of Advanced Content ADVCT An outline of the resource information RESRCI shown in FIG. 21 will be described below. In the object mapping information OBMAPI in the playlist PLLST, when and when to import the resource file in which each information necessary for playback of the advanced application ADAPL and advanced subtitle ADSBT is taken into the data cache DTCCH (file cache FLCCH) Information is recorded in the resource information RESRCI. In the present embodiment, there are the following two types of resource information RESRCI. The first type of resource information RESRCI is resource information RESRCI related to the advanced application ADAPL, and the other type is resource information RESRCI related to the advanced subtitle ADSBT.

図21に示したタイトルタイムラインTMLE上で表示する各種オブジェクトに対応したオブジェクトマッピングインフォメーションOBMAPIの中に、プレイリストPLLST内で定義されたトラックナンバーアサイメントインフォメーションを含む。   Track number assignment information defined in the playlist PLLST is included in the object mapping information OBMAPI corresponding to various objects displayed on the title timeline TMLE shown in FIG.

本実施形態のアドバンストコンテンツADVCTにおいて、異なるオブジェクトに対応した各種ストリームの選別用にトラック番号が定義される。例として、複数の音声情報(オーディオストリーム)の中からユーザーに対して表示する音声情報を前記トラック番号の指定により選択することができる。例えば図12に示すようにサブスティテュートオーディオSBTAD内にメインオーディオMANADが存在するが、このメインオーディオMANAD内に互いに異なる内容の複数のオーディオストリームが存在する場合がある。オブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメント)内で事前に定義されたオーディオトラック番号を指定することにより、複数のオーディオストリームの中でユーザーに表示するオーディオストリームを選択することができる。また前記サブスティテュートオーディオSBTAD内のメインオーディオMANADとして記録されている音声情報を、プライマリーオーディオビデオPRMAVの中のメインオーディオMANADに重畳して音声出力することができる。このように重畳されて出力されるプライマリーオーディオビデオPRMAV内のメインオーディオMANADが内容の異なる複数の音声情報(オーディオストリーム)を持っている場合がある。この場合にオブジェクトマッピングインフォメーションOBMAPI(トラックナンバーアサイメント)内で事前に定義されたオーディオトラック番号を指定することにより、複数のオーディオストリームの中でユーザーに表示するオーディオストリームを選択することができる。   In the advanced content ADVCT of this embodiment, track numbers are defined for selecting various streams corresponding to different objects. As an example, audio information to be displayed to the user can be selected from a plurality of audio information (audio streams) by specifying the track number. For example, as shown in FIG. 12, the main audio MANAD exists in the substitute audio SBTAD, but there may be a plurality of audio streams having different contents in the main audio MANAD. By specifying a predetermined audio track number in the object mapping information OBMAPI (track number assignment), an audio stream to be displayed to the user can be selected from among a plurality of audio streams. Also, the audio information recorded as the main audio MANAD in the substitute audio SBTAD can be superimposed and output on the main audio MANAD in the primary audio video PRMAV. In some cases, the main audio MANAD in the primary audio video PRMAV output in a superimposed manner has a plurality of pieces of audio information (audio streams) having different contents. In this case, an audio stream to be displayed to the user can be selected from a plurality of audio streams by designating an audio track number defined in advance in the object mapping information OBMAPI (track number assignment).

前記説明したトラックの中には5種類のタイプが存在し、メインビデオMANVD、メインオーディオMANAD、サブタイトルADSBT、サブビデオSUBVDとサブオーディオSUBADの5種類のタイプにはそれぞれ内容の異なる複数のストリームを同時に記録することが可能となっている。そのため前記5種類のオブジェクトタイプに対してはそれぞれのストリームに対応してトラック番号を割り振り、トラック番号選択によりユーザーに表示するストリームの選択が可能になる。   There are five types of tracks described above, and a plurality of streams having different contents are simultaneously provided in the five types of main video MANVD, main audio MANAD, subtitle ADSBT, sub video SUBVD, and sub audio SUBAD. It is possible to record. Therefore, a track number is assigned to each of the five object types corresponding to each stream, and a stream to be displayed to the user can be selected by selecting the track number.

本実施形態において字幕やテロップなどの情報は、プライマリーオーディオビデオPRMAV内の副映像SUBPTで表示する方法とアドバンストサブタイトルADSBTで表示する方法の2通りが存在する。本実施形態では前記アドバンストサブタイトルADSBTのタイムラインTMLE上でのマッピングは、例えばプライマリーオーディオビデオPRMAVなどのマッピング状況と関わりなく単独にオブジェクトマッピングインフォメーションOBMAPI上でマッピング定義することができる。その結果、字幕やテロップなどの情報をプライマリーオーディオビデオPRMAV内の副映像SUBPTとアドバンストサブタイトルADSBTを同時に表示できるばかりでなく表示開始/終了のタイミングをそれぞれ独自に設定できる。またどちらか一方のみを選別して表示することも可能となりそれによる字幕やテロップの表示能力を大幅に向上させることができる。   In the present embodiment, there are two types of information such as subtitles and telops, a method of displaying with the sub-picture SUBPT in the primary audio video PRMAV and a method of displaying with the advanced subtitle ADSBT. In the present embodiment, the mapping of the advanced subtitle ADSBT on the timeline TMLE can be defined independently on the object mapping information OBMAPI independently of the mapping status of the primary audio video PRMAV, for example. As a result, information such as subtitles and telops can be displayed simultaneously with the sub-picture SUBPT and the advanced subtitle ADSBT in the primary audio video PRMAV, and the display start / end timing can be set independently. It is also possible to select and display only one of them, thereby greatly improving the display capability of subtitles and telops.

図21において、プライマリーオーディオビデオPRMAVに対応した部分はP-EVOBという形で一本の帯で表示されているが、実はこの中にはメインビデオトラックMANVD、メインオーディオトラックMANAD、サブビデオトラックSUBVD、サブオーディオトラックSUBAD、副映像トラックSUBPTが含まれ、それぞれが複数のトラックから構成されるとともに表示の時にはそれぞれ1つずつのトラック(ストリーム)が選別されて表示されている。また同様にセカンダリービデオセットSCDVSではS-EVOBでの帯として記載されているが、それはサブビデオトラックSUBVDやサブオーディオトラックSUBADが含まれ、それぞれ1トラック(1ストリーム)ずつ選択されて表示される構造となっている。もしタイトルタイムラインTMLE上で唯一プライマリーオーディオビデオPRMAVのみがオブジェクトマッピングインフォメーションOBMAPI上にマッピングされている場合には本実施形態では以下のルールを規定し再生制御処理の容易性を確保している。   In FIG. 21, the portion corresponding to the primary audio video PRMAV is displayed as a single band in the form of P-EVOB. In fact, this includes a main video track MANVD, a main audio track MANAD, a sub video track SUBVD, A sub audio track SUBAD and a sub video track SUBPT are included, each of which is composed of a plurality of tracks, and one track (stream) is selected and displayed at the time of display. Similarly, in the secondary video set SCDVS, it is described as a band in the S-EVOB, but it includes a sub video track SUBVD and a sub audio track SUBAD, and each track (one stream) is selected and displayed. It has become. If only the primary audio video PRMAV is mapped on the object mapping information OBMAPI on the title timeline TMLE, the following rules are defined in this embodiment to ensure the ease of playback control processing.

・メインビデオストリームMANVDは、必ずオブジェクトマッピングインフォメーションOBMAPI上にマッピングされ、再生されなければならない。   The main video stream MANVD must be mapped and reproduced on the object mapping information OBMAPI.

・メインオーディオストリームMANADのうち1トラック(1ストリーム)もオブジェクトマッピングインフォメーションOBMAPI上にマッピングされ再生される(ただし再生しなくてもよい)。本実施形態はそれに関わらず、メインオーディオストリームMANADがオブジェクトマッピングインフォメーションOBMAPI上にマッピングされないことも許容する。   One track (one stream) of the main audio stream MANAD is also mapped and reproduced on the object mapping information OBMAPI (however, it does not have to be reproduced). Regardless of this, the present embodiment also allows the main audio stream MANAD not to be mapped on the object mapping information OBMAPI.

・タイトルタイムラインTMLE上にマッピングされたサブビデオストリームSUBVDはユーザーへの表示が前提とされるが、(ユーザー選択などにより)必ずしも表示しなくても良い。   The sub video stream SUBVD mapped on the title timeline TMLE is assumed to be displayed to the user, but may not necessarily be displayed (by user selection or the like).

・タイトルタイムラインTMLE上にマッピングされたサブオーディオストリームSUBADのうちの1トラック(1ストリーム)はユーザーへの表示が前提とされるが、(ユーザー選択などにより)必ずしも表示しなくても良い。   One track (one stream) of the sub audio stream SUBAD mapped on the title timeline TMLE is assumed to be displayed to the user, but may not necessarily be displayed (by user selection or the like).

また、タイトルタイムラインTMLE上でプライマリーオーディオビデオPRMAVとサブスティテュートオーディオビデオSBTAVがオブジェクトマッピングインフォメーションOBMAPI上に同時にマッピングされ両者が有効(アクティブ)な状態にある場合には、本実施形態では以下のルールを規定し再生制御処理の容易性と信頼性を確保している。   In addition, when the primary audio video PRMAV and the substitute audio video SBTAV are simultaneously mapped on the object mapping information OBMAPI on the title timeline TMLE and both are valid (active), the following rules are applied in this embodiment. It prescribes and ensures the ease and reliability of playback control processing.

・プライマリーオーディオビデオPRMAVのメインビデオストリームMANVDの代わりにセカンダリーオーディオビデオSCDAV内のメインビデオストリームMANVDを再生表示することができる。   The main video stream MANVD in the secondary audio video SCDAV can be reproduced and displayed instead of the main video stream MANVD of the primary audio video PRMAV.

・プライマリーオーディオビデオPRMAVのメインオーディオストリームMANADに代わってサブスティテュートオーディオビデオSBTAD内のメインオーディオストリームMANADを再生表示することができる。   The main audio stream MANAD in the substitute audio video SBTAD can be reproduced and displayed instead of the main audio stream MANAD of the primary audio video PRMAV.

・サブビデオストリームSUBVDを上記メインビデオストリームMANVDと同時に再生することができるが、必ずしも同時に再生する必要はない。   The sub video stream SUBVD can be reproduced at the same time as the main video stream MANVD, but is not necessarily reproduced at the same time.

・サブオーディオストリームSUBADの内の1個を上記メインオーディオストリームMANADと同時に再生出力できるが、必ずしも再生出力する必要はない。   One of the sub audio streams SUBAD can be reproduced and output simultaneously with the main audio stream MANAD, but it is not always necessary to reproduce and output.

もし、プライマリーオーディオビデオPRMAVとサブスティテュートオーディオSBTADがタイトルタイムラインTMLE上に同時にマッピングされ同時に表示される場合には、本実施形態では以下のルールを規定し、アドバンストコンテンツ再生部内ADVPLの制御処理の容易性と信頼性を確保している。   If the primary audio video PRMAV and the substitute audio SBTAD are simultaneously mapped and displayed on the title timeline TMLE, this embodiment defines the following rules to facilitate the ADVPL control process in the advanced content playback unit: Ensuring reliability and reliability.

・プライマリーオーディオビデオPRMAV内におけるメインビデオMANVDは、オブジェクトマッピングインフォメーションOBMAPI内にマッピングされ、必ず再生されなければならない。   The main video MANVD in the primary audio video PRMAV is mapped in the object mapping information OBMAPI and must be played back.

・プライマリーオーディオビデオPRMAV内におけるメインオーディオストリームMANADに代わって、サブスティテュートオーディオSBTAD内のメインオーディオストリームMANADを再生することができる。   The main audio stream MANAD in the substitute audio SBTAD can be reproduced instead of the main audio stream MANAD in the primary audio video PRMAV.

・サブビデオストリームSUBVDは、同時に表示することを前提としているが、(ユーザー選択などにより)必ずしも表示しなくても良い。   The sub video stream SUBVD is assumed to be displayed at the same time, but may not necessarily be displayed (by user selection or the like).

・サブオーディオSUBADにおいては、(複数トラックのうち)1トラック(1ストリーム)を表示することが前提となっているが、(ユーザー選択などにより)必ずしも表示しなくても良い。   In sub audio SUBAD, it is assumed that one track (one stream) is displayed (of a plurality of tracks), but it is not always necessary to display it (by user selection or the like).

プライマリーオーディオビデオPRMAVとセカンダリーオーディオビデオSCDAVが、オブジェクトマッピングインフォメーションOBMAPI内でタイトルタイムラインTMLE上に同時にマッピングされていた場合には、本実施形態では以下のルールを規定しアドバンストコンテンツ再生部ADVPLの処理の簡素化と信頼性向上を確保している。   When the primary audio video PRMAV and the secondary audio video SCDAV are simultaneously mapped on the title timeline TMLE in the object mapping information OBMAPI, this embodiment defines the following rules and defines the processing of the advanced content playback unit ADVPL: Simplification and improved reliability are ensured.

・プライマリーオーディオビデオPRMAV内のメインビデオストリームMANVDは、必ず再生されなければならない。   -The main video stream MANVD in the primary audio video PRMAV must be played.

・メインオーディオストリームMANADのうちの1トラック(1ストリーム)は表示することが前提とされるが、(ユーザー選択などにより)必ずしも表示しなくても良い。   It is assumed that one track (one stream) of the main audio stream MANAD is displayed, but it is not always necessary to display it (by user selection or the like).

・プライマリーオーディオビデオPRMAV内におけるサブビデオストリームSUBVDとサブオーディオストリームSUBADに代わって、セカンダリーオーディオビデオSCDAV内におけるサブビデオストリームSUBVDとサブオーディオストリームSUBADを再生することができる。セカンダリーオーディオビデオSCDAV内でのセカンダリーエンハンストビデオオブジェクトデータS-EVOBの中にサブオーディオストリームSUBADとサブビデオストリームSUBVDが多重化されて記録されている場合には、サブオーディオストリームSUBADのみが再生することを禁止している。   The sub video stream SUBVD and the sub audio stream SUBAD in the secondary audio video SCDAV can be reproduced instead of the sub video stream SUBVD and the sub audio stream SUBAD in the primary audio video PRMAV. When sub audio stream SUBAD and sub video stream SUBVD are multiplexed and recorded in secondary enhanced video object data S-EVOB in secondary audio video SCDAV, only sub audio stream SUBAD is played back. It is prohibited.

本実施形態におけるタイトルタイムラインTMLEの単位の取り方について以下に説明を行う。   A method for taking the unit of the title timeline TMLE in this embodiment will be described below.

本実施形態におけるタイトルタイムラインTMLEは、映像(ビデオ)情報のフレームやフィールドの表示タイミングに同期した時間刻みを持ち、この時間刻みのカウント数でタイトルタイムラインTMLE上の時刻を設定するところに大きな特徴がある。例えばNTSC系ではインターレース表示の場合には1秒間に60フィールドと30フレームを持っている。従って、本実施形態におけるタイトルタイムラインTMLEの最小時間刻みの長さを1秒間に60分割し、その時間刻み(ユニット)のカウント数でタイトルタイムラインTMLE上の時刻を設定する。またNTSC系のプログレッシブ表示では1秒間に60フィールド=60フレームが存在し、前記の時間刻みに合致している。またPAL系は50Hz系となっており、インターレース表示では1秒間に50フィールド/25フレーム存在し、プログレッシブ表示では1秒間に50フィールド=50フレーム存在している。この50Hz系の映像の場合には、1秒間にタイトルタイムラインTMLEを50等分し、各等分された1個の間隔(1/50秒)を基準としたカウント数でタイトルタイムラインTMLE上の時刻/タイミングを設定する。このようにタイトルタイムラインTMLEの基準長さ(最小時間単位)を映像のフィールドやフレームの表示タイミングに同期して設定することにより、各映像間の同期合わせタイミング表示制御が容易となるばかりでなく、現実的に意味のある範囲内での最高精度の時間設定が可能となる。   The title timeline TMLE in the present embodiment has a time step synchronized with the display timing of the frame of video (video) information and the field, and the time on the title timeline TMLE is set by the count number of this time step. There are features. For example, the NTSC system has 60 fields and 30 frames per second for interlaced display. Therefore, the length of the minimum time increment of the title timeline TMLE in this embodiment is divided into 60 per second, and the time on the title timeline TMLE is set by the count number of the time increment (unit). Further, in the progressive display of the NTSC system, there are 60 fields = 60 frames per second, which matches the above time step. The PAL system is a 50 Hz system, and there are 50 fields / 25 frames per second in interlaced display, and 50 fields = 50 frames per second in progressive display. In the case of this 50 Hz video, the title timeline TMLE is divided into 50 equal parts per second, and the number of counts based on one equally divided interval (1/50 second) is displayed on the title timeline TMLE. Set the time / timing for. Thus, by setting the reference length (minimum time unit) of the title timeline TMLE in synchronization with the display timing of the video field and frame, not only the synchronization timing display control between the videos is facilitated. It is possible to set the time with the highest accuracy within a practically meaningful range.

本実施形態において基本的には上記カウント数でタイトルタイムラインTMLE上の時刻/タイミングを設定するが、同一タイトル内の表示時間が長時間に亘る場合に時間換算が容易なようにプレイリストPLLST内でのタイトルタイムラインTMLE上の時間情報を“時間、分、秒とカウント値(HH:MM:SS:FF)”を用いて表現する。上記の表現形式において、“HH”は時間単位を表し“00”〜“23”の値を入れることができる。また“MM”は分単位を表し、“00”〜“59”の値を入れることができる。さらに“SS”は秒単位を表し“00”〜“59”の値を入れることができる。最後に“FF”は上記カウント数(プログレッシブ表示の場合にはフレーム数、インターレース表示の場合にはフィールド数)を表し、50Hz系の映像(例えばPAL系)の場合には“00”〜“49”の値が入り、60Hz系の映像(例えばNTSC系)の場合には“00”〜“59”の値が入る。上記表現方法を採用することにより、タイトルタイムラインTMLE上の経過時間を容易に把握することができる。   In the present embodiment, the time / timing on the title timeline TMLE is basically set by the above count number, but in the playlist PLLST so that time conversion is easy when the display time in the same title is long. The time information on the title timeline TMLE is expressed using “hour, minute, second and count value (HH: MM: SS: FF)”. In the above expression format, “HH” represents a unit of time, and values from “00” to “23” can be entered. “MM” represents a minute unit, and values from “00” to “59” can be entered. Further, “SS” represents a unit of seconds, and a value from “00” to “59” can be entered. Finally, “FF” represents the count number (the number of frames in the case of progressive display, the number of fields in the case of interlaced display). In the case of a 60 Hz video (for example, NTSC system), a value from “00” to “59” is entered. By adopting the above expression method, the elapsed time on the title timeline TMLE can be easily grasped.

上述したように本実施形態では映像(ビデオ)のフィールドやフレームに合わせて時間刻みを設定しており、60Hz系での1個の時間単位は1/60秒であり、50Hz系での1個の時間刻みの単位は1/50秒となっているが、この各時間刻み位置(時刻)で全ての表示オブジェクトの切替わり(表示開始、または表示終了、または別画面への切替わり)のタイミングを行うように制御がなされる。すなわち本実施形態ではあらゆる表示オブジェクトの表示期間が前記タイトルタイムラインTMLE上の時間刻み(1/60秒または1/50秒)に合わせて設定される。音声情報のフレーム間隔は、前記映像(ビデオ)のフレーム/フィールド間隔とは異なる場合が多い。この場合にはオーディオ情報の再生/終了タイミングは、タイトルタイムラインTMLE上での各刻み間隔に合わせて切り上げしたタイミングで表示期間(表示開始/終了時刻)が設定される。それにより、タイトルタイムラインTMLE上での複数の音声オブジェクトの表示間での出力の重なり(オーバーラップ)を回避することが可能となる。   As described above, in this embodiment, the time increment is set according to the field or frame of the video (video). One time unit in the 60 Hz system is 1/60 second, and one unit in the 50 Hz system. The unit of time increment is 1/50 second, but the timing of switching all display objects (display start, display end, or switch to another screen) at each time step position (time) Control is performed to That is, in this embodiment, the display period of every display object is set in accordance with the time increment (1/60 second or 1/50 second) on the title timeline TMLE. The frame interval of audio information is often different from the frame / field interval of the video (video). In this case, the display period (display start / end time) is set as the playback / end timing of the audio information at a timing rounded up in accordance with each step interval on the title timeline TMLE. As a result, it is possible to avoid overlap of outputs between the display of a plurality of audio objects on the title timeline TMLE.

また、アドバンストアプリケーションADAPL情報の表示タイミングがタイトルタイムラインTMLEの刻み間隔と異なる場合、(例としてアドバンストアプリケーションADAPLが1秒間に24フレーム持ち、それを60Hz系のタイトルタイムラインTMLE上で表示期間を表す場合には)アドバンストアプリケーションADPALの表示タイミングをそれぞれ切り上げ処理し、60Hz系の(時間刻みが1/60秒)のタイトルタイムラインTMLEに表示タイミング(表示開始/終了時刻)を合わせる。   Also, if the display timing of the advanced application ADAPL information is different from the interval of the title timeline TMLE (for example, the advanced application ADAPL has 24 frames per second and represents the display period on the 60 Hz title timeline TMLE In this case, the display timing of the advanced application ADPAL is rounded up to match the display timing (display start / end time) with the title timeline TMLE of 60 Hz (time increment is 1/60 second).

本実施形態において、アドバンストアプリケーションADAPLのタイトルタイムラインTMLE上の有効期間は、プリスクリプト期間、マークアップ表示期間とポストスクリプト期間の3つの期間に分けることができる。前記マークアップ表示期間は、アドバンストアプリケーションADAPLのマークアップMRKUPの情報に基づきタイトルタイムラインTMLEの各時間刻みに対応して表示する期間を表す。前述したプリスクリプト期間は前記マークアップ表示期間に先行し、アドバンストアプリケーションADAPLの画面を表示する準備期間として利用される。前記ポストスクリプト期間は前記マークアップ表示期間の直後に設定され、アドバンストアプリケーションADAPLの各表示オブジェクトの表示直後の終了期間(例えばメモリーリソースの解放処理に使用される期間)として利用される。また本実施形態ではそれに限らず、プリスクリプト期間はアドバンストアプリケーションADAPL表示に先立つ事前の制御処理時間(例えばゲームのユーザーに与えられた持ち点をクリアする)として使用することもできる。またポストスクリプト期間では、前記アドバンストアプリケーションADAPLの再生直後のコマンド処理(例えばゲームのユーザーの持ち点のポイントアップ処理)などに使用することもできる。   In the present embodiment, the valid period on the title timeline TMLE of the advanced application ADAPL can be divided into three periods: a prescript period, a markup display period, and a postscript period. The markup display period represents a period for display corresponding to each time step of the title timeline TMLE based on the markup MRKUP information of the advanced application ADAPL. The prescript period described above precedes the markup display period and is used as a preparation period for displaying the screen of the advanced application ADAPL. The postscript period is set immediately after the markup display period, and is used as an end period (for example, a period used for memory resource release processing) immediately after display of each display object of the advanced application ADAPL. In the present embodiment, the pre-script period is not limited to this, and the pre-script period can also be used as a prior control processing time (for example, clearing the points given to the game user) prior to the advanced application ADAPL display. Further, in the postscript period, the advanced application ADAPL can be used for command processing immediately after reproduction (for example, point-up processing of points of a game user).

次に前述したマークアップ表示期間内での画面について説明を行う。例えば、図20の表示画面を例とした場合、本実施形態では例えば映像表示中にストップボタン34を押すと映像が静止すると共に、ストップボタン34の形状や色が変化するなどの画面表示を変更することができる。それは、図1〜3の“技術的工夫を行った結果得られる新たな効果”欄に記載の“1〕ユーザーアクションに対する柔軟かつ印象的なリアクションを行う”内の“1.1)ボタン選択や実行指示した時にアニメーションやイメージが変化して応答する”の効果を意味している。上記の例のように図20の表示画面自身が大きく変更される場合には、アドバンストアプリケーションADAPL内での対応するマークアップMRKUPが別のマークアップMRKUPに遷移する。このようにアドバンストアプリケーションADAPLの表示画面内容を設定するマークアップMRKUPを別のマークアップMRKUPに遷移させることにより、見た目の画面表示を大幅に変更させることができる。すなわち、本実施形態においてマークアップ表示期間中に異なる画面に合わせて複数のマークアップMRKUPを設定し、画面の切り替えに合わせて対応するマークアップを切替える(その切り替え処理はスクリプトSCRPTで記述された方法で切替えられる)。従って本実施形態において、マークアップMRKUP表示期間中でのタイトルタイムラインTMLE上でのマークアップページの開始タイミングは、前記複数存在するマークアップ内での最初に表示するマークアップMRKUP情報の表示開始タイミングと一致し、タイトルタイムラインTMLE上でのマークアップページの終了タイミングは、前記複数存在するマークアップMRKUP内での最後のマークアップMRKUPの表示終了タイミングと一致する。このようなマークアップページの遷移(表示画面内でのアドバンストアプリケーションADAPL部分での表示画面の変化)の方法として、本実施形態では以下の2つの遷移モデルを規定している。   Next, the screen within the markup display period described above will be described. For example, when the display screen of FIG. 20 is taken as an example, in this embodiment, for example, when the stop button 34 is pressed during video display, the video is stopped and the screen display changes such as the shape and color of the stop button 34 being changed. can do. This is because “1.1) Button selection and execution instructions in“ 1) Perform flexible and impressive reactions to user actions ”in the“ New effects obtained as a result of technical innovation ”column in FIGS. It means the effect of “responding with changes in animation and images”. When the display screen itself of FIG. 20 is significantly changed as in the above example, the corresponding markup MRKUP in the advanced application ADAPL transitions to another markup MRKUP. In this way, by changing the markup MRKUP for setting the display screen content of the advanced application ADAPL to another markup MRKUP, the screen display can be changed greatly. That is, in this embodiment, a plurality of markup MRKUPs are set in accordance with different screens during the markup display period, and the corresponding markups are switched in accordance with the screen switching (the switching process is a method described in the script SCRPT). Can be switched). Therefore, in the present embodiment, the start timing of the markup page on the title timeline TMLE during the markup MRKUP display period is the display start timing of the markup MRKUP information to be displayed first in the plurality of existing markups. The markup page end timing on the title timeline TMLE matches the display end timing of the last markup MRKUP in the plurality of markup MRKUPs. As a method of such a transition of the markup page (change of the display screen in the advanced application ADAPL portion in the display screen), the present embodiment defines the following two transition models.

最初に上げる遷移方法はマークアップページのソフトシンク遷移(ジャンプモデル)であり、この遷移タイミングではユーザーに表示する画面上においてタイトルタイムラインTMLEの時間の流れが停止することがない。すなわち、前記マークアップページの切替えタイミングは前述したタイトルタイムラインTMLEの刻み位置(時刻)とタイミングが一致し、前のマークアップページの終了タイミングと次のマークアップページ(アドバンストアプリケーションADAPLの表示画面)の開始タイミングとが、タイトルタイムラインTMLE上で一致する。これらを可能とするために、本実施形態において前のマークアップページを終了させるために必要な時間(例えばデータキャッシュDTCCH内での割当てられたメモリ空間の開放に使われる時間など)と次のマークアップページを表示している時間をオーバーラップさせる。さらに前のマークアップページの表示期間中にオーバーラップして次のマークアップページの表示準備期間が設定される。前記マークアップページのソフトシンク遷移(ジャンプ)は、タイトルタイムラインTMLEに同期したアドバンストアプリケーションADAPLまたは、アドバンストサブタイトルADSBTに対して使用することができる。   The first transition method to be raised is the soft sync transition (jump model) of the markup page. At this transition timing, the time flow of the title timeline TMLE does not stop on the screen displayed to the user. In other words, the markup page switching timing matches the timing position (time) of the title timeline TMLE described above, the end timing of the previous markup page and the next markup page (display screen of the advanced application ADAPL) Is coincident with the start timing of the title timeline TMLE. In order to make these possible, the time required for ending the previous markup page in this embodiment (for example, the time used for releasing the allocated memory space in the data cache DTCCH) and the next mark Overlap the time when the up page is displayed. Further, the display preparation period of the next markup page is set by overlapping during the display period of the previous markup page. The soft sync transition (jump) of the markup page can be used for the advanced application ADAPL synchronized with the title timeline TMLE or the advanced subtitle ADSBT.

次に他の遷移方法として本実施形態では、マークアップページのハードシンク遷移(ジャンプ)も規定している。一般的にはユーザーに表示する画面上ではタイトルタイムラインTMLE上での時間変化が生じ(タイトルタイムラインTMLE上でのカウントアップが行われ)、それに同期して例えばプライマリーオーディオビデオPRMAVの画面が変化する。例えばタイトルタイムラインTMLE上での時間が止まった(タイトルタイムラインTMLE上でのカウント値が固定された)場合には、対応してプライマリーオーディオビデオPRMAVの画面が止まり静止画面としてユーザーに表示される。本実施形態におけるマークアップページのハードシンク遷移(ジャンプ)が起きた時には上記のタイトルタイムラインTMLE上での時間が止まった(タイトルタイムラインTMLE上でのカウント値が固定された)期間が生じる。前記、マークアップページのハードシンク遷移(ジャンプ)においては、タイトルタイムライン(TMLE)上での見かけ上の切替え前のマークアップページの終了タイミング時刻と、次のマークアップページのタイトルタイムラインTMLE上での再生開始タイミングは一致する。前記遷移の場合には、前に表示したマークアップページの終了期間と次のマークアップページを表示するために必要な準備期間とが、オーバーラップすることはない。そのため、前記遷移期間中ではタイトルタイムラインTMLE上の時間の流れが一時的に止まり、例えばプライマリーオーディオビデオPRMAVなどのオブジェクトの表示が一時的に停止される。前記、マークアップページのハードシンク遷移(ジャンプ)処理は、本実施形態においてはアドバンストアプリケーションADAPLのみ使用される。それにより例えばアドバンストサブタイトルADSBTの表示画面の切替え時には、タイトルタイムラインTMLEの時間上の時間変化が止まることなく(例えばプライマリーオーディオビデオPRMAVが停止することなく)アドバンストサブタイトルADSBTの画面変化を行うことが可能となる。   Next, as another transition method, the present embodiment also defines a hard sync transition (jump) of a markup page. In general, a time change on the title timeline TMLE occurs on the screen displayed to the user (a count up is performed on the title timeline TMLE), and the screen of the primary audio video PRMAV changes in synchronization with that, for example. To do. For example, when the time on the title timeline TMLE stops (the count value on the title timeline TMLE is fixed), the primary audio video PRMAV screen correspondingly stops and is displayed to the user as a still screen. . When the hard sync transition (jump) of the markup page in the present embodiment occurs, there is a period in which the time on the title timeline TMLE is stopped (the count value on the title timeline TMLE is fixed). In the hard sync transition (jump) of the markup page, the end timing time of the markup page before the apparent switching on the title timeline (TMLE) and the title timeline TMLE of the next markup page The playback start timings at are the same. In the case of the transition, the end period of the previously displayed markup page and the preparation period necessary for displaying the next markup page do not overlap. Therefore, during the transition period, the flow of time on the title timeline TMLE is temporarily stopped, and display of an object such as the primary audio video PRMAV is temporarily stopped. The hard sync transition (jump) process of the markup page is used only in the advanced application ADAPL in this embodiment. For example, when the display screen of the advanced subtitle ADSBT is switched, it is possible to change the screen of the advanced subtitle ADSBT without stopping the temporal change of the title timeline TMLE (for example, without stopping the primary audio video PRMAV). It becomes.

前記、マークアップページで指定されるアドバンストアプリケーションADAPLや、アドバンストサブタイトルADSBTなどの画面の切替えは、本実施形態においてはフレーム単位での画面の切替えを行う。例えばインターレース表示において1秒間のフレーム数とフィールド数が異なるが、常にフレーム単位でアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTの画面の切替えを行うように制御することにより、インターレース/プログレッシブに関わらず同じタイミングで切替え処理が行えるため制御が容易となる。すなわち直前のフレーム表示タイミングで次のフレームに必要な画面の準備を開始させる。そして次のフレームの表示タイミングまでに準備を完了させるとともに、次のフレームの表示タイミングに合わせて画面を表示する。例えばNTSCのインターレース表示の場合、60Hz系なのでタイトルタイムラインTMLEの時間刻みの間隔は1/60秒になっている。また、この場合には1秒間に30フレーム表示されるため、タイトルタイムラインTMLEの2単位(2個の刻みの境界位置)の間隔でフレームの表示タイミングが設定される。従って、例えば、n番目のタイトルタイムラインTMLE上のカウント値に画面を表示しようと思えばその2カウント前のn−2のタイミングで次のフレームの表示準備の開始を行い、タイトルタイムラインTMLEのカウントnの段階で準備したグラフィックフレーム(アドバンストアプリケーションADAPLに関係した各種画面をまとめて表示する画面を本実施形態ではグラフィックフレームと呼ぶ)を表示する。本実施形態ではそのようにフレーム単位でのグラフィックフレームの準備と表示を設定することで、ユーザーに対して連続的にグラフィカルフレームの切替えを表示することができ、ユーザーに違和間を与えないというメリットがある。   The screen switching of the advanced application ADAPL and the advanced subtitle ADSBT specified on the markup page is performed on a frame basis in the present embodiment. For example, in interlaced display, the number of frames per second is different from the number of fields, but by switching so that the screen of the advanced application ADAPL and advanced subtitle ADSBT is always switched in units of frames, switching is performed at the same timing regardless of interlace / progressive. Since processing can be performed, control becomes easy. That is, preparation of a screen necessary for the next frame is started at the immediately preceding frame display timing. The preparation is completed by the display timing of the next frame, and the screen is displayed in accordance with the display timing of the next frame. For example, in the case of NTSC interlaced display, the time interval of the title timeline TMLE is 1/60 second because it is 60 Hz. Further, in this case, since 30 frames are displayed per second, the frame display timing is set at intervals of 2 units (boundary position of two steps) of the title timeline TMLE. Therefore, for example, if you want to display the screen at the count value on the nth title timeline TMLE, the display preparation of the next frame is started at the timing of n-2 two counts before that, and the title timeline TMLE A graphic frame prepared at the count n stage (screens that collectively display various screens related to the advanced application ADAPL are referred to as graphic frames in the present embodiment) is displayed. In this embodiment, by setting the preparation and display of graphic frames in units of frames as described above, it is possible to continuously display graphical frame switching for the user, and not to give the user a sense of incongruity. There is.

図21に示したプレイリストPLLST内に記述されるオブジェクトマッピングインフォメーションOBMAPI内にプレゼンテーションクリップエレメントと呼ばれるエレメントのリスト情報が記載される。前記、各種プレゼンテーションクリップエレメントと、それに対応した表示・使用対象となるオブジェクト名との関係を図22に示す。   List information of an element called a presentation clip element is described in the object mapping information OBMAPI described in the playlist PLLST shown in FIG. FIG. 22 shows the relationship between the various presentation clip elements and the corresponding object names to be displayed and used.

図22に示すように、オブジェクトマッピングインフォメーションOBMAPI内で記述されるプライマリーオーディオビデオクリップエレメントPRAVCPは、プライマリーオーディオビデオPRMAVに関するオブジェクトマッピングインフォメーションOBMAPIを説明している。また、サブスティテュートオーディオビデオクリップSBAVCPは、サブスティテュートオーディオビデオSBTAVのオブジェクトマッピングインフォメーションOBMAPIの説明をしている。また、セカンダリーオーディオビデオクリップエレメントSCAVCPは、セカンダリーオーディオビデオSCDAVのオブジェクトマッピングインフォメーションOBMAPIの説明をしている。またサブスティテュートオーディオクリップエレメントSBADCPは、サブスティテュートオーディオSBTADのオブジェクトマッピングインフォメーションOBMAPIを説明している。オブジェクトマッピングインフォメーションOBMAPI内におけるアドバンストサブタイトルセグメントエレメントADSTSGは、アドバンストサブタイトルADSBTに関するマークアップMRKUPSに関する情報が記載されている。また、オブジェクトマッピングインフォメーションOBMAPI内におけるアプリケーションセグメントエレメントAPPLSGは、アドバンストアプリケーションADAPLのマークアップMRKUPとスクリプトSCRPTに関する情報が記載されている。前記再生・使用対象となる各オブジェクトに関するオブジェクトマッピングインフォメーションOBMAPIの中には、タイトルタイムラインTMLE上の各オブジェクトの有効な期間(表示期間もしくは、その準備期間や終了処理期間も含む)に関する情報が記載されている。タイトルタイムラインTMLE上での前記有効期間は、タイトルタイムラインTMLE上での開始時間(時刻)と終了時間(時刻)により規定される。各クリップエレメントにおいて、タイトルタイムラインTMLE上における開始時間(時刻)と終了時間(時刻)は、titleTimeBegin属性とtitleTimeEnd属性により規定されている。すなわち各クリップエレメント内で個々に前記titleTimeBegin属性情報とtitleTimeEnd属性情報が記録され、タイトルタイムラインTMLE上においてtitleTimeBegin属性で記述された時刻から対応したオブジェクトの表示が開始され、titleTimeEnd属性で記述された時刻で表示が終了される。アドバンストサブタイトルセグメントエレメントADSTSGとアプリケーションセグメントエレメントAPPLSGを除くプライマリーオーディオビデオクリップエレメントPRAVCPとセカンダリーオーディオビデオクリップエレメントSCAVCP、サブスティテュートオーディオビデオクリップエレメントSBAVCP及びサブスティテュートオーディオクリップエレメントSBADCPにおいては各オブジェクトが記録されている開始位置から算出した表示経過時間を意味するclipTimeBeginにより、プライマリーオーディオビデオPRMAVやセカンダリーオーディオビデオSCDAV、サブスティテュートオーディオビデオSBATAV、サブスティテュートオーディオSBTADの表示が開始される。すなわち前述したtitleTimeBegin属性とtitleTimeEnd属性は、タイトルタイムラインTMLE上での時刻情報を意味し、前述したclipTimeBeginは各オブジェクト内での単独の時間経過を意味し、前記titleTimeBegin属性と前記clipTimeBeginの各時刻間での同期合わせをすることにより異なる複数のオブジェクトを同一のタイトルタイムラインTMLE上で同期して表示させることができる。   As shown in FIG. 22, the primary audio video clip element PRAVCP described in the object mapping information OBMAPI describes the object mapping information OBMAPI related to the primary audio video PRMAV. The substitute audio video clip SBAVCP describes object mapping information OBMAPI of the substitute audio video SBTAV. The secondary audio video clip element SCAVCP describes object mapping information OBMAPI of the secondary audio video SCDAV. The substitute audio clip element SBADCP describes object mapping information OBMAPI of the substitute audio SBTAD. The advanced subtitle segment element ADSTSG in the object mapping information OBMAPI describes information about the markup MRKUPS related to the advanced subtitle ADSBT. The application segment element APPLSG in the object mapping information OBMAPI describes information about the markup MRKUP and script SCRPT of the advanced application ADAPL. In the object mapping information OBMAPI relating to each object to be played back and used, information relating to the effective period (including the display period, the preparation period, and the end processing period) of each object on the title timeline TMLE is described. Has been. The valid period on the title timeline TMLE is defined by a start time (time) and an end time (time) on the title timeline TMLE. In each clip element, the start time (time) and end time (time) on the title timeline TMLE are defined by the titleTimeBegin attribute and the titleTimeEnd attribute. That is, the titleTimeBegin attribute information and the titleTimeEnd attribute information are individually recorded in each clip element, and the display of the corresponding object is started from the time described by the titleTimeBegin attribute on the title timeline TMLE, and the time described by the titleTimeEnd attribute The display is finished. Start of recording each object in primary audio video clip element PRAVCP, secondary audio video clip element SCAVCP, substitute audio video clip element SBAVCP and substitute audio clip element SBADCP excluding advanced subtitle segment element ADSTSG and application segment element APPLSG Display of the primary audio video PRMAV, the secondary audio video SCDAV, the substitute audio video SBATV, and the substitute audio SBTAD is started by clipTimeBegin which means the display elapsed time calculated from the position. That is, the above-mentioned titleTimeBegin attribute and titleTimeEnd attribute mean time information on the title timeline TMLE, and the above-mentioned clipTimeBegin means a single time lapse within each object, and between each time of the titleTimeBegin attribute and the clipTimeBegin A plurality of different objects can be displayed synchronously on the same title timeline TMLE by performing synchronization adjustment in.

本実施形態では各種表示オブジェクトの表示期間と、前述したtitleTimeBegin、titleTimeEnd、clipTimeBeginとの間には以下の関係を設定することで、表示タイミングの矛盾を発生せず表示処理の精度を向上させることができる。   In the present embodiment, by setting the following relationship between the display period of various display objects and the above-described titleTimeBegin, titleTimeEnd, and clipTimeBegin, it is possible to improve display processing accuracy without causing display timing conflicts. it can.

・titleTimeBegin<titleTimeEnd
・titleTimeEnd≦[タイトルの表示期間]
・clipTimeBegin+titleTimeEnd−titleTimeBegin≦[表示オブジェクトの表示期間]
更に本実施形態において下記の条件を設定することにより、表示精度を向上させている。
・ TitleTimeBegin <titleTimeEnd
・ TitleTimeEnd ≦ [Title display period]
・ ClipTimeBegin + titleTimeEnd−titleTimeBegin ≦ [Display period of display object]
Furthermore, the display accuracy is improved by setting the following conditions in the present embodiment.

・各プライマリーオーディオビデオクリップエレメントPRAVCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。   The valid period of each primary audio video clip element PRAVCP must not overlap on the title timeline TMLE.

・各セカンダリーオーディオビデオクリップエレメントSCAVCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。   • The validity period of each secondary audio video clip element SCAVCP must not overlap each other on the title timeline TMLE.

・各サブスティテュートオーディオクリップエレメントSBADCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。   • The valid periods of each substitute audio clip element SBADCP must not overlap each other on the title timeline TMLE.

・セカンダリーオーディオビデオクリップエレメントSCAVCPの有効期間とサブスティテュートオーディオクリップエレメントSBADCPの有効期間が互いにタイトルタイムラインTMLE上でオーバーラップしてはならない。   The valid period of the secondary audio video clip element SCAVCP and the valid period of the substitute audio clip element SBADCP must not overlap each other on the title timeline TMLE.

図14で示したように、プレイリストPLLSTからはプライマリービデオセットPRMVSのタイムマップPTMAP、セカンダリービデオセットSCDVSのタイムマップSTMAP、マニュフェストMNFSTとアドバンストサブタイトルADSBTのマニュフェストMNFSTSを参照する。   As shown in FIG. 14, the playlist PLLST refers to the time map PTMAP of the primary video set PRMVS, the time map STMAP of the secondary video set SCDVS, the manifest MNFST, and the manifest MNFSTS of the advanced subtitle ADSBT.

具体的には図22に示すように、プライマリーオーディオビデオクリップエレメントPRAVCP内で参照するファイル名としてプライマリービデオセットPRMVSのタイムマップファイルPTMAPのファイル名とその保存場所がプライマリーオーディオビデオクリップエレメントPRAVCP内に記述されている。同様にセカンダリービデオセットSCDVSのタイムマップファイルSTMAPのファイル名とその保存場所は、セカンダリーオーディオビデオクリップエレメントSCAVCP内に記述されている。さらにセカンダリービデオセットSCDVSのタイムマップファイルSTMAPのファイル名と保存場所はサブスティテュートオーディオクリップエレメントSBADCP内、又はサブスティテュートオーディオビデオクリップエレメントSBAVCP内に記述されている。またアドバンストサブタイトルADSBTのマニュフェストファイルMNFSTSのファイル名とその保存場所がアドバンストサブタイトルセグメントエレメントADSTSG内に記述されており、アドバンストアプリケーションADAPLのマニュフェストファイルMNFSTのファイル名とその保存場所はアプリケーションセグメントエレメントAPPLSG内に記述されている。   Specifically, as shown in FIG. 22, the file name of the time map file PTMAP of the primary video set PRMVS and the storage location thereof are described in the primary audio video clip element PRAVCP as file names to be referenced in the primary audio video clip element PRAVCP. Has been. Similarly, the file name of the time map file STMAP of the secondary video set SCDVS and its storage location are described in the secondary audio video clip element SCAVCP. Further, the file name and storage location of the time map file STMAP of the secondary video set SCDVS are described in the substitute audio clip element SBADCP or in the substitute audio video clip element SBAVCP. The file name of the advanced subtitle ADSBT manifest file MNFSTS and its storage location are described in the advanced subtitle segment element ADSTSG, and the file name and storage location of the advanced application ADAPL manifest file MNFST are described in the application segment element APPLSG. Has been.

また、図22に示したオブジェクトの再生・使用時にインデックスとして参照されるファイルが保存している場所は図12に記載されているが、再度確認のため図22の前記オブジェクトが元々記録されている欄に記述した。   Further, the location where the file referred to as an index when the object shown in FIG. 22 is played back and stored is shown in FIG. 12, but the object shown in FIG. 22 is originally recorded for confirmation again. Described in the column.

なお本実施形態において情報記憶媒体DISC内にプレイリストPLLSTのみ記録させ、前記プレイリストPLLSTからネットワークサーバーNTSRVまたはパーシステントストレージPRSTR内に記録された再生・使用対象となる各種オブジェクトを指定できる。   In the present embodiment, only the playlist PLLST is recorded in the information storage medium DISC, and various objects to be reproduced / used recorded in the network server NTSRV or the persistent storage PRSTR can be specified from the playlist PLLST.

各クリップエレメント内に記述され、オブジェクトの再生・使用時にインデックスとして参照されるファイルは図22に示すように、各種記録媒体(ネットワークサーバーNTSRVを含む)内に記録することができる。前記、各クリップエレメント内に記述されるファイルの保存場所指定方法を図23に示す。すなわち、ネットワークサーバーNTSRV内にファイルが保存されている場合には、図23に示すようにHTTPサーバーまたはHTTPSサーバーのアドレスを、“ http:… ”または“ https:… ”により記述する。本実施形態において、各クリップエレメント内で記述されるファイル保存場所指定情報(URI:Uniform Resource Identifier)の記述範囲は1024バイト以下で記述しなければならない。また情報記憶媒体DISCや、ファイルキャッシュFLCCH(データーキャッシュDTCCH)やパーシステントストレージPRSTR内にこれらが記録されている場合には、データファイルとしてファイル保存場所を指定する。   A file described in each clip element and referred to as an index when an object is played back or used can be recorded in various recording media (including network server NTSRV) as shown in FIG. FIG. 23 shows a storage location designation method for files described in each clip element. That is, when a file is stored in the network server NTSRV, the address of the HTTP server or HTTPS server is described by “http:...” Or “https:...” As shown in FIG. In this embodiment, the description range of file storage location designation information (URI: Uniform Resource Identifier) described in each clip element must be described with 1024 bytes or less. If these are recorded in the information storage medium DISC, the file cache FLCCH (data cache DTCCH), or the persistent storage PRSTR, the file storage location is designated as a data file.

図23で示した、情報記憶媒体DISCや、ファイルキャッシュFLCCH(データーキャッシュDTCCH)や、パーシステントストレージPRSTR内に各ファイルが保存されている場合、媒体メディアを識別する必要がある。本実施形態では各種クリップエレメント内で図24に示すようなパス指定記述方法を採用することにより媒体メディアを識別できるようにしているところに特徴がある。   When each file is stored in the information storage medium DISC, the file cache FLCCH (data cache DTCCH), or the persistent storage PRSTR shown in FIG. 23, it is necessary to identify the medium medium. The present embodiment is characterized in that the medium and medium can be identified by adopting a path designation description method as shown in FIG. 24 in various clip elements.

本実施形態において、パーシステントストレージPRSTRに対して2種類の記録メディアを視野に入れている。最初のものは固定形パーシステントストレージPRSTRであり、本実施形態においては情報記録再生装置1内について1台のパーシステントストレージドライブ3のみを規定する。また、他のものは携帯形パーシステントストレージPRSTRであり、本実施形態においては情報記録再生装置1内では、1以上(複数可)を装備することが可能としている。ファイルへのパス指定記述においては、図24に示すような記述方法を規定し、この内容がプレイリストPLLST内の各種クリップエレメント内に記述される。すなわち、情報記憶媒体DISC内にファイルが記録されている場合には、 File:///dvddisc/ と記述し、ファイルキャッシュFLCCH(データキャッシュDTCCH)内にファイルが記載されている場合には、パス指定記述方法として File:///filecache/ とする。また、固定形パーシステントストレージPRSTR内にファイルが記録されている場合には、パス指定記述方法として File:///required/ とする。また、携帯形パーシステントストレージPRSTR 内にファイルが記録されている場合にはパス指定記述方法として、File:///additional/ とする。また情報記憶媒体DISCやファイルキャッシュFLCCH(データキャッシュDTCCH)またはパーシステントストレージPRSTR内に各種ファイルが記録される場合には、各記録メディア内で図13に示すファイル構造を形成し、それぞれの対応したディレクトリの下に各ファイルが記録される。   In this embodiment, two types of recording media are considered in view of the persistent storage PRSTR. The first one is a fixed persistent storage PRSTR. In this embodiment, only one persistent storage drive 3 is defined for the information recording / reproducing apparatus 1. The other is a portable persistent storage PRSTR. In this embodiment, one or more (a plurality of) can be provided in the information recording / reproducing apparatus 1. In the path designation description to the file, a description method as shown in FIG. 24 is defined, and this content is described in various clip elements in the playlist PLLST. That is, when a file is recorded in the information storage medium DISC, it is described as File: /// dvddisc /, and when a file is described in the file cache FLCCH (data cache DTCCH), the path File: /// filecache / is used as the specification method. When a file is recorded in the fixed persistent storage PRSTR, the file designation method is File: /// required /. If a file is recorded in the portable persistent storage PRSTR, File: /// additional / is used as the path designation description method. When various files are recorded in the information storage medium DISC, the file cache FLCCH (data cache DTCCH) or the persistent storage PRSTR, the file structure shown in FIG. 13 is formed in each recording medium, and the corresponding Each file is recorded under the directory.

図21に示したプレイリストPLLSTに関する情報が記録されているプレイリストファイルPLLSTの中でのデータ構造を図25に記載する。このプレイリストファイルPLLSTは、図13に示すようにアドバンストコンテンツディレクトリADVCTの下に直接プレイリストファイルPLLSTの形で記録される。前記プレイリストファイルPLLST内は、管理情報と各表示オブジェクト間の同期合わせ情報及び初期時のシステム構造に関する情報(データキャッシュDTCCH内で使用するメモリ空間の事前割付など)に関する情報が記載されている。前記プレイリストファイルPLLSTは、XMLに基づく記述方法により記載される。前記プレイリストファイルPLLST内の概略データ構造を図25に示す。   FIG. 25 shows a data structure in the playlist file PLLST in which information on the playlist PLLST shown in FIG. 21 is recorded. This playlist file PLLST is recorded in the form of a playlist file PLLST directly under the advanced content directory ADVCT as shown in FIG. In the playlist file PLLST, management information and information on synchronization between display objects and information on an initial system structure (such as pre-allocation of a memory space used in the data cache DTCCH) are described. The playlist file PLLST is described by a description method based on XML. FIG. 25 shows a schematic data structure in the playlist file PLLST.

図25における < Playlist[プレイリスト]… > と < /Playlist > で囲まれた領域をプレイリストエレメントと呼ぶ。前記プレイリストエレメント内の情報としては、構造情報CONFGIとメディア属性情報MDATRIとタイトル情報TTINFOが前記の順番で記載される。本実施形態において、プレイリストエレメント内の各種エレメントの配置順番は、図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにおける映像表示開始前の動作手順に対応して設定されている。すなわち、図16に示すアドバンストコンテンツ再生部ADVPL内のデータキャッシュDTCCH内での使用するメモリ空間の割付作業が再生準備の段階で最も必要となる。そのため、プレイリストエレメント内で構造情報エレメントCONFGIが最初に記述される。次に各表示オブジェクト内の情報の属性に応じて図16内のプレゼンテーションエンジンPRSENの準備がなされる必要がある。そのため、構造情報エレメントCONFGIの後ろかつタイトル情報エレメントTTINFOの前に前記メディア属性情報エレメントMDATRIが記述される必要がある。このようにデータキャッシュDTCCHとプレゼンテーションエンジンPRSENの準備が整った後、タイトル情報エレメントTTINFOに記載された情報に従いアドバンストコンテンツ再生部ADVPLが表示処理を開始する。そのため、各準備に必要な情報の後に(最後の位置に)タイトル情報エレメントTTINFOが配置される。   An area surrounded by <Playlist [...]> and </ Playlist> in FIG. 25 is called a playlist element. As information in the playlist element, structure information CONFGI, media attribute information MDATRI, and title information TTINFO are described in the above order. In the present embodiment, the arrangement order of the various elements in the playlist element is set corresponding to the operation procedure before the start of video display in the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. That is, the allocation work of the memory space used in the data cache DTCCH in the advanced content playback unit ADVPL shown in FIG. 16 is most necessary at the stage of playback preparation. Therefore, the structure information element CONFGI is first described in the playlist element. Next, it is necessary to prepare the presentation engine PRSEN in FIG. 16 according to the attribute of information in each display object. Therefore, the media attribute information element MDATRI needs to be described after the structure information element CONFGI and before the title information element TTINFO. After the preparation of the data cache DTCCH and the presentation engine PRSEN is thus completed, the advanced content playback unit ADVPL starts display processing according to the information described in the title information element TTINFO. Therefore, the title information element TTINFO is arranged after the information necessary for each preparation (at the last position).

本実施形態においてプレイリストエレメントPLLST内のデータ構造として、プレイリストエレメントPLLST内の最初の位置に構造情報CONFGIが記載されているところに大きな特徴がある。それにより、プレイリストPLLSTで共通に使用するシステム内の条件(各パラメーター)設定が先行でき、起動時の再生開始までの時間を短縮化できる。また更に、メディア属性情報MDATRIとタイトル情報TTINFOを分離記述したところにも特徴がある。それにより、異なるタイトル間で同一の属性情報を共有化でき、記述文章量の節約とデコーダー内パラメーター設定等の処理の簡素化が図れるという効果が生じる。また、メディア属性情報MDATRIがタイトル情報TTINFOより先行した場所に記述されているところに次なる特徴がある。その結果、デコーダー内パラメーター設定等の処理を先行させる事で起動時の再生開始までの時間の短縮化が図れる。   In this embodiment, as a data structure in the playlist element PLLST, there is a great feature in that the structure information CONFGI is described at the first position in the playlist element PLLST. As a result, the system conditions (each parameter) that are commonly used in the playlist PLLST can be set in advance, and the time until the start of playback at startup can be shortened. Furthermore, the media attribute information MDATRI and the title information TTINFO are described separately. As a result, the same attribute information can be shared between different titles, and the effects of saving the amount of written text and simplifying processing such as setting parameters in the decoder can be achieved. The media attribute information MDATRI is described in a place preceding the title information TTINFO. As a result, it is possible to shorten the time until the start of playback at the time of startup by preceding processing such as parameter setting in the decoder.

図25における最初の行は“以下の文がXML記述方式により記載される”ということを宣言する定義文章であり、 “ < ?xml ” と “ ? > ”の間にxml属性情報XMATRIの情報が記載される構造となっている。   The first line in FIG. 25 is a definition sentence declaring that “the following sentence is described by the XML description method”, and the information of the xml attribute information XMATRI is between “<? Xml” and “?>”. It has the structure described.

前記xml属性情報XMATRI内の情報内容を図26(a)に示す。   The information content in the xml attribute information XMATRI is shown in FIG.

前記xml属性情報XMATRIの情報はXMLの対応バージョン情報と子関係にある別のXMLを参照しているか否かを示す情報が記載されている。前記子関係にある別のXMLを参照しているか否かを示す情報は“yes”と“no”で記述され、子関係にある別のXMLをこの対象とする記載文章の中に直接参照している場合は“no”、別のXMLをこのXML文章内で直接参照せず単独XMLとして存在する場合は“yes”を記述する。XMLの宣言文として、例えばXMLの対応バージョン番号が1.0で別のXMLを参照せず単独のXMLとして存在する場合には図26(a)の記載例として、 “< ?xml version = ‘1.0’ standalone =‘yes’ ? > ” を記述する。   The information of the xml attribute information XMATRI describes information indicating whether or not another XML having a child relationship with the corresponding version information of XML is referenced. Information indicating whether or not another XML having a child relationship is referred to is described as “yes” and “no”, and the other XML having a child relationship is directly referred to in the target sentence. If it exists, “no” is described. If another XML does not refer directly to this XML document and exists as a single XML, describe “yes”. As an XML declaration statement, for example, when the corresponding version number of XML is 1.0 and it exists as a single XML without referring to another XML, “<? Xml version = '1.0” standalone = 'yes'?>

プレイリストエレメントの範囲を規定するプレイリストエレメントタグ内の記載文章は、“ <Playlist ” に続き、プレイリストタグの名前空間定義情報PLTGNMとプレイリスト属性情報PLATRIを記述し、最後に “ > ” で閉じてプレイリストエレメントタグを形成する。前記プレイリストエレメントタグ内の記載情報を図26(b)に記載する。本実施形態においてプレイリストファイルPLLST内に存在するプレイリストエレメントの数は1個を原則としているが、特殊な場合には複数のプレイリストエレメントが記載可能なようになっている。その場合、プレイリストファイルPLLST内に複数のプレイリストエレメントタグが記載される可能性があるので、各プレイリストエレメント毎の識別が可能なように、プレイリストタグの名前空間定義情報PLTGNMを “ < Playlist ”の直後に記述する。また、プレイリスト属性情報PLATRI内の情報はアドバンストコンテンツバージョン番号の整数部の値MJVERNと、アドバンストコンテンツバージョン番号情報の小数点以下の値MNVERN及び、前記プレイリストエレメント内における前記プレイリストに関する付加情報(名前など)PLDSCIの情報がこの順番に記載される。例えば、記載例としてアドバンストコンテンツバージョン番号が“1.0”の場合にはアドバンストコンテンツバージョン番号の整数部の値MJVERNは“1”、アドバンストコンテンツバージョン番号の小数点以下の値MNVERNは“0”の値が入り、プレイリストPLLSTに関する付加情報をstringとする。イリストタグの名前空間定義情報PLTGNMをhttp://www.dvdforum.org/HDDVDVideo/Playlistとした場合には、プレイリストエレメントタグ内の記述文章は、
“< Playlist xmlns = ‘http://www.dvdforum.org/HDDVDVideo/Playlist
majorVersion = ‘1’
minorVersion = ‘0’
description = string >”となる。
The description in the playlist element tag that defines the range of the playlist element is described with “<Playlist” followed by the playlist tag name space definition information PLTGNM and the playlist attribute information PLATRI, followed by “>”. Close to form a playlist element tag. The description information in the playlist element tag is shown in FIG. In the present embodiment, the number of playlist elements existing in the playlist file PLLST is one in principle, but in a special case, a plurality of playlist elements can be described. In this case, since there is a possibility that a plurality of playlist element tags are described in the playlist file PLLST, the playlist tag name space definition information PLTGNM is set to “<” so that each playlist element can be identified. Describe immediately after “Playlist”. The information in the playlist attribute information PLATRI includes the value MJVERN of the integer part of the advanced content version number, the value MNVERN below the decimal point of the advanced content version number information, and additional information (name) on the playlist in the playlist element. Etc.) PLDSCI information is listed in this order. For example, when the advanced content version number is “1.0” as an example, the integer part value MJVERN of the advanced content version number is “1”, and the value MNVERN below the decimal point of the advanced content version number is “0”. The additional information related to the playlist PLLST is set to string. Namelist definition information PLTGNM of the Eristo tag is changed to http: // www. dvdform. In the case of org / HDDVDVideo / Playlist, the description text in the playlist element tag is
“<Playlist xmlns = 'http://www.dvdforum.org/HDDVDVideo/Playlist
majorVersion = '1'
minorVersion = '0'
description = string> ”

更に図26(b)に示すように、プレイリスト属性情報PLATRI内には一般的によく使われるテキストフォーマットで記述されるプレイリスト名PLDPNMが、displayName属性情報として記述される。本実施形態におけるアドバンストコンテンツ再生部ADVPLは、情報記憶媒体DISCのディスク名として前記プレイリスト名PLDPNMをユーザーに表示することができる。また、前記プレイリスト名PLDPNMはプレイリストタグ内での記述を省くことができる。更にプレイリストコンテンツのタイプ情報PLTYPEとして、“Advanced”又は“Interoperable”のいずれかの値を記述することができる。本実施形態において、録画再生が可能なアドバンストビデオレコーディング規格に基づいてユーザーが録画・編集した映像コンテンツをアドバンストコンテンツADVCTの一部として再生することができる。その場合には、前記ユーザーが録画・編集した映像コンテンツを“インターオペラブルコンテンツ”として設定することで、前記プレイリストPLLST内での再生が可能となる。この場合には、前記プレイリストコンテンツのタイプ情報PLTYPEの値として“Interoperable”の値が記載される。それ以外の一般的なアドバンストコンテンツADVCTの映像情報の場合には、前記プレイリストコンテンツのタイプ情報PLTYPEの値として“Advanced”の値が記述される。本実施形態において、プレイリストタグ内の情報として前記プレイリストコンテンツのタイプ情報PLTYPEの記載を省くことが可能である。この場合には、デフォルト値である“Advanced”の値がプレイリストコンテンツのタイプ情報PLTYPEの値として自動設定される。   Further, as shown in FIG. 26B, in the playlist attribute information PLATRI, a playlist name PLDPNM described in a commonly used text format is described as displayName attribute information. The advanced content playback unit ADVPL in this embodiment can display the playlist name PLDPNM to the user as the disc name of the information storage medium DISC. The playlist name PLDPNM can omit the description in the playlist tag. Furthermore, either “Advanced” or “Interoperable” can be described as the playlist content type information PLTYPE. In the present embodiment, video content recorded and edited by a user based on the advanced video recording standard that allows recording and playback can be played back as part of the advanced content ADVCT. In this case, the video content recorded / edited by the user is set as “interoperable content”, thereby enabling reproduction within the playlist PLLST. In this case, the value of “Interoperable” is described as the value of the playlist content type information PLTYPE. In the case of video information of other general advanced content ADVCT, the value of “Advanced” is described as the value of the playlist content type information PLTYPE. In the present embodiment, it is possible to omit the description of the playlist content type information PLTYPE as information in the playlist tag. In this case, the default value “Advanced” is automatically set as the value of the playlist content type information PLTYPE.

図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL内では、前記プレイリストエレメントタグ内に記述されたアドバンストコンテンツバージョン番号を最初に再生し、アドバンストコンテンツ再生部ADVPLがサポートしているバージョン番号の範囲内にあるか否かを判断する。   In the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15, the advanced content version number described in the playlist element tag is played back first, and the version supported by the advanced content playback unit ADVPL Determine whether it is within the number range.

もし、アドバンストコンテンツバージョン番号が、サポート範囲を超えた場合にはアドバンストコンテンツ再生部ADVPLは、ただちに再生処理を停止する必要がある。そのため、本実施形態ではプレイリスト属性情報PLATRI内では最も先行した位置にアドバンストコンテンツバージョン番号の情報が記載されている。   If the advanced content version number exceeds the support range, the advanced content playback unit ADVPL needs to immediately stop the playback process. Therefore, in the present embodiment, the advanced content version number information is described at the most preceding position in the playlist attribute information PLATRI.

本実施形態におけるプレイリストPLLST内に記載される各種情報は、図27と図28に示すような階層構造を有している。   Various pieces of information described in the playlist PLLST in the present embodiment have a hierarchical structure as shown in FIGS.

前述したプレイリストファイルPLLST内に記録されている情報においてプレイリストエレメント内に含まれるタイトル情報TTINFOは、図27(b)に示すように < TitleSet > と < /TitleSet >に挟まれたタイトルセットエレメントにより記述される。この前記タイトルセットエレメントはプレイリストPLLST内で定義されたアドバンストコンテンツADVCTのタイトルセットに関係した情報が記述される。前記タイトルセットエレメント内には1以上のタイトルエレメント情報TTELEMが順番に記載され、各タイトルに関する管理情報がそれぞれ対応したタイトルエレメント情報TTELEM内に記録されている。図21の例ではタイトル#1〜#3までの3個のタイトルを持っており、それに対応させて図27(b)でもタイトル#1に関するタイトルエレメント情報TTELEMからタイトル#3に関するタイトルエレメント情報TTELEMまでを記述しているが、それに限らず1以上任意数まで各タイトルに関するタイトルエレメント情報TTELEMを記述することができる。各タイトルエレメント情報TTELEMに対応したタイトル毎にそれぞれ独自にタイトルタイムラインTMLEが設定される。各タイトル毎のタイトルタイムラインTMLEの表示期間は、前記タイトルエレメント情報TTELEM内のtitleDulation属性情報(タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDUR)内に記載される。前記タイトルセットエレメント内で記述される各タイトルエレメント情報TTELEMの記載順番に従い、各対応するタイトルの番号が設定される。図27(b)に示すように、タイトルセットエレメント内に最初に記述するタイトルエレメント情報TTELEMに対応したタイトルのタイトル番号を1と設定する。本実施形態において、前記タイトルセットエレメント内に記述可能なタイトルエレメント情報TTELEMの数(1個のプレイリストPLLST内で定義できるタイトル数)は、512以下にしている。そのようにタイトル数の上限値を設定することにより、アドバンストコンテンツ再生部ADVPLでの処理が発散するのを防止している。各タイトルエレメント情報TTELEM内に記載される情報は、オブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQIとトラックナビゲーションインフォメーションTRNAVIが前記記載した順番に記録される。またオブジェクトマッピングインフォメーションOBMAPI内には、各表示オブジェクト内のストリーム(トラック)の番号を設定したトラックナンバーアサイメントインフォメーションの情報が含まれている。前記オブジェクトマッピングインフォーメーションOBMAPI内には、図28で説明するように各種クリップエレメントのリストが記述されている。また前述した表示クリップエレメント内での各トラック番号の設定情報を表すトラックナンバーアサイメントインフォメーションに関するリストが前記オブジェクトマッピングインフォーメーションOBMAPI内に記述されている。本実施形態ではビデオ情報や、オーディオ情報や副映像情報などの各再生オブジェクトが複数のストリームを持つことが可能となっており、各ストリーム毎に別々のトラックを対応づけ、それと共にトラック番号を設定することにより表示オブジェクト内での再生ストリームの識別が可能となっている。このようにトラックナンバーアサイメントエレメントのリストを設定することで、各表示オブジェクト内で含まれるストリーム数と個々のストリーム間の識別が可能となる。リソースインフォメーションRESRCI内ではタイトルエレメント情報TTELEM内におけるリソースエレメントのリストが説明されている。トラックナビゲーションインフォメーションTRNAVI内では、トラックナビゲーションリストエレメントに関する情報が記述されている。また、プレイバックシーケンスインフォメーションPLSQI内では、同一タイトル内での映像内容の分割に対応したチャプターの先頭位置を表すチャプターリストエレメントの情報が記載されている。   The title information TTINFO included in the playlist element in the information recorded in the playlist file PLLST is the title set element sandwiched between <TitleSet> and </ TitleSet> as shown in FIG. Is described by In the title set element, information related to the title set of the advanced content ADVCT defined in the playlist PLLST is described. One or more title element information TTELEM is described in order in the title set element, and management information regarding each title is recorded in the corresponding title element information TTELEM. In the example of FIG. 21, there are three titles # 1 to # 3. Correspondingly, in FIG. 27B, from title element information TTELEM relating to title # 1 to title element information TTELEM relating to title # 3. However, the present invention is not limited thereto, and the title element information TTELEM relating to each title can be described up to one or more arbitrary numbers. A title timeline TMLE is set for each title corresponding to each title element information TTELEM. The display period of the title timeline TMLE for each title is described in titleDulation attribute information (time length information TTDUR of the entire title on the title timeline TMLE) in the title element information TTELEM. Each corresponding title number is set in accordance with the description order of the title element information TTELEM described in the title set element. As shown in FIG. 27B, the title number of the title corresponding to the title element information TTELEM described first in the title set element is set to 1. In the present embodiment, the number of title element information TTELEM that can be described in the title set element (the number of titles that can be defined in one playlist PLLST) is 512 or less. By setting the upper limit of the number of titles in this way, it is possible to prevent the processing in the advanced content playback unit ADVPL from spreading. Information described in each title element information TTELEM includes object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI and track navigation information TRNAVI recorded in the order described above. The object mapping information OBMAPI includes information on track number assignment information in which a stream (track) number in each display object is set. In the object mapping information OBMAPI, a list of various clip elements is described as described in FIG. A list relating to track number assignment information representing setting information of each track number in the display clip element is described in the object mapping information OBMAPI. In this embodiment, each playback object such as video information, audio information, and sub-picture information can have a plurality of streams, and a separate track is associated with each stream, and a track number is set with it. By doing so, it is possible to identify the playback stream in the display object. By setting the list of track number assignment elements in this way, the number of streams included in each display object and identification between individual streams can be made. In resource information RESRCI, a list of resource elements in title element information TTELEM is described. In the track navigation information TRNAVI, information on the track navigation list element is described. Further, in the playback sequence information PLSQI, information on a chapter list element indicating the start position of a chapter corresponding to division of video content within the same title is described.

図27(c)に示すようにタイトルエレメント情報TTELEM内でのオブジェクトマッピングインフォメーションOBMAPIと、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVIの配列順は、情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL(図15参照)の処理手順に対応している。すなわち、タイトルエレメント情報TTELEM内の最初の場所に同一タイトル内で使用されるアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報が記載されたオブジェクトマッピングインフォメーションOBMAPIの情報が記載される。アドバンストコンテンツ再生部ADVPLは最初に記録されているオブジェクトマッピングインフォメーションOBMAPIの中から同一タイトル内で使用されるアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの内容を最初に把握する。図12の説明のところで説明したようにアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報は、ユーザーへの表示に先立ちファイルキャッシュFLCCH(データキャッシュDTCCH)内に事前に保存されている必要がある。そのため、情報記録再生装置1内でのアドバンストコンテンツ再生部ADVPLでは、再生に先立ってどのようなアドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTがタイトル内で設定され、それぞれがどのタイミングでファイルキャッシュFLCCH(データキャッシュDTCCH)内に事前格納しておくかについての情報が必要となる。アドバンストコンテンツ再生部ADVPLは次にリソースインフォメーションRESRCIを読み取り、アドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTのファイルキャッシュFLCCH(データキャッシュDTCCH)内の格納タイミングを知ることができる。従ってリソースインフォメーションRESRCIがオブジェクトマッピングインフォメーションOBMAPIの後ろに記述されることでアドバンストコンテンツ再生部ADVPLが処理しやすくなる。また、ユーザーがアドバンストコンテンツADVCTを再生する時に見たい映像を即座に移動できやすいようにプレイバックシーケンスインフォメーションPLSQIが重要となるため、リソースインフォメーションRESRCIの後ろにプレイバックシーケンスインフォメーションPLSQIが配置されている。トラックナビゲーションインフォメーションTRNAVIはユーザーへの表示直前に必要な情報なので、タイトルエレメント情報TTELEM内で最後の場所に記述される。   As shown in FIG. 27 (c), the order of arrangement of the object mapping information OBMAPI in the title element information TTELEM, the resource information RESRCI, the playback sequence information PLSQI, and the track navigation information TRNAVI is an advanced content in the information recording / reproducing apparatus 1. This corresponds to the processing procedure of the playback unit ADVPL (see FIG. 15). That is, information of object mapping information OBMAPI in which information of advanced application ADAPL and advanced subtitle ADSBT used in the same title is described at the first place in title element information TTELEM. The advanced content playback unit ADVPL first grasps the contents of the advanced application ADAPL and advanced subtitle ADSBT used in the same title from the object mapping information OBMAPI recorded first. As described with reference to FIG. 12, the information on the advanced application ADAPL and the advanced subtitle ADSBT needs to be stored in advance in the file cache FLCCH (data cache DTCCH) prior to display to the user. Therefore, in the advanced content playback unit ADVPL in the information recording / playback apparatus 1, what advanced application ADAPL and advanced subtitle ADSBT are set in the title prior to playback, and at which timing each file cache FLCCH (data cache DTCCH Information on whether to store in advance is required. Next, the advanced content playback unit ADVPL can read the resource information RESRCI and know the storage timing of the advanced application ADAPL and the advanced subtitle ADSBT in the file cache FLCCH (data cache DTCCH). Accordingly, the resource information RESRCI is described after the object mapping information OBMAPI, so that the advanced content playback unit ADVPL can easily process. Also, the playback sequence information PLSQI is arranged after the resource information RESRCI because the playback sequence information PLSQI is important so that the user can easily move the video he / she wants to watch when playing the advanced content ADVCT. Since the track navigation information TRNAVI is necessary information immediately before display to the user, it is described at the last place in the title element information TTELEM.

図27(c)に示すようにタイトルエレメント情報TTELEM内タイトルエレメントタグ内の最初にタイトルのID情報TTIDIを記述する事で
1)タイトル情報TTINFO内に複数のタイトルエレメント情報TTELEMが記述でき、(異なるタイトル毎に対応した再生管理情報としてタイトルエレメント情報TTELEMがそれぞれ設定される)。
By describing the title ID information TTIDI at the beginning of the title element tag in the title element information TTELEM as shown in FIG. 27 (c) 1) Multiple title element information TTELEM can be described in the title information TTINFO (different) Title element information TTELEM is set as playback management information corresponding to each title).

さらに
2)タイトルエレメントタグ内の最初に記述されたタイトルのID情報TTIDIの内容を解読する事でタイトル情報TTINFO内の各タイトルエレメント情報TTELEMを即座に識別でき、プレイリストPLLST内の内容判別処理の高速化が図れる。
2) Each title element information TTELEM in the title information TTINFO can be immediately identified by decoding the content of the title ID information TTIDI described in the title element tag first, and the content identification process in the playlist PLLST High speed can be achieved.

また、本実施形態においてタイトルエレメント情報TTELEM内で記述する内容の関連する情報同士をそれぞれまとめてグルーピングして互いに近い位置に記述した。各グループ名としてオブジェクトマッピングインフォメーションOBMAPI、リソースインフォメーションRESRCI、プレイバックシーケンスインフォメーションPLSQI、トラックナビゲーションインフォメーションTRNAVIと名付ける。それによりプレイリストマネージャーPLMNG(図32参照)内でのプレイリストPLLSTの内容解読処理の簡素化と高速化が図れる。   Further, in the present embodiment, information related to the contents described in the title element information TTELEM is grouped together and described at positions close to each other. Each group is named as object mapping information OBMAPI, resource information RESRCI, playback sequence information PLSQI, and track navigation information TRNAVI. As a result, the content decoding process of the playlist PLLST in the playlist manager PLMNG (see FIG. 32) can be simplified and speeded up.

本実施形態において、各タイトルエレメント情報TTELEMの開始を表すタイトルエレメントタグ内に記載されている情報を図28に示す。前記タイトルエレメントタグ内には、各タイトルの識別を行うためのタイトルのID情報TTIDが最初に記載される。次にタイトル番号情報TTNUMが記述される。本実施形態においてタイトル情報TTINFOの中に図28(b)に示すように複数のタイトルエレメント情報TTELEMを記述することができる。前記タイトル情報TTINFO内の最初から記述されるタイトルエレメント情報TTELEMに対し、記述順に従ってタイトル番号が設定され、このタイトル番号が前記タイトル番号情報TTNUM内に記述される。また、タイトルエレメント情報TTELEMで管理されるタイトルのタイプ(種類)に関してタイトルタイプ情報TTTYPEが記述される。本実施形態において、前記タイトルタイプ情報TTTYPEとして“Advanced”、“Original”及び“UserDefined”の3種類のタイプ情報の値を設定することができる。本実施形態において、ユーザーが録画・編集・再生が可能なアドバンストビデオレコーディングフォーマットで記録された映像情報をアドバンストコンテンツADVCTの一部として活用することができる。前記アドバンストビデオレコーディングフォーマットで記録された映像情報をインターオペーラブルコンテンツと呼ぶ。前記インターオペーラブルコンテンツに関するオリジナルタイトル(録画直後で編集を行う前の状態のインターオペーラブルコンテンツ)に対するタイトルタイプ情報TTTYPEを“Original”と設定する。また、前記インターオペーラブルコンテンツに関してユーザーが編集した後の(ユーザーにより定義された(Defineded))タイトルに対するタイトルタイプ情報TTTYPEを“UserDefined”と設定する。また、それ以外のアドバンストコンテンツADVCTに関しては“Advanced”と設定する。本実施形態においては、タイトル属性情報TTATRI内に前記タイトルタイプ情報TTTYPEの記述を省略することができる。この場合には、デフォルト値である“Advanced”の値が自動的に設定される。次に選択属性情報が記述される。この選択属性情報は、指定されたタイトルがユーザーオペレーションによる対応が可能か否かの選択情報を表す。例えば図15に示すシステムの場合、ユーザーが大画面テレビモニター15に向かい、(図示していないが)リモコンによる画面操作(例えば早送りFFや巻戻しFR)を行う場合がある。このようにユーザーが指示する処理をユーザーオペレーションと言い、そのユーザーオペレーションに対応してタイトルが処理されるか否かを表すのが前記選択属性情報(セレクタブルアトリビューション)に対応する。この情報は“true”か“false”どちらかの単語を記入する。例えば対応したタイトルの映像内容がコマーシャルCM44や上映予告41などユーザーに早送りされては困る場合には、対応したタイトル全体がユーザーオペレーション禁止にすることができる。この場合には前記選択属性情報を“false”とし、対応したタイトルをユーザーオペレーション禁止とし、ユーザーによる早送りや巻戻しなどの要求を拒否できる。またこの値が“true”の場合にはユーザーのオペレーションに対応し、ユーザーのリクエストに応じ巻戻しや早送りなどの処理(ユーザーオペレーション)を行うことができる。本実施形態において、前記選択属性(セレクタブルアトリビューション)の情報としてデフォルト値を“true”(ユーザーオペレーションの対応可能)に設定している。アドバンストコンテンツ再生部ADVPL(図15参照)は前記選択属性情報に基づきタイトルの再生処理方法が大きく変わる。従って前記選択属性情報をタイトルのID情報TTIDの直後で他の情報よりも先行した位置に配置することにより、アドバンストコンテンツ再生部ADVPL処理の利便性を向上させることができる。本実施形態においてはタイトルエレメントタグ内で、前記選択属性情報の記述を省くことが可能である。記載が省かれた場合には、デフォルト値の“true”として設定される。   In the present embodiment, information described in the title element tag indicating the start of each title element information TTELEM is shown in FIG. In the title element tag, title ID information TTID for identifying each title is first described. Next, title number information TTNUM is described. In the present embodiment, a plurality of title element information TTELEM can be described in the title information TTINFO as shown in FIG. For the title element information TTELEM described from the beginning in the title information TTINFO, a title number is set according to the description order, and this title number is described in the title number information TTNUM. Further, title type information TTTYPE is described with respect to the type (type) of title managed by the title element information TTELEM. In the present embodiment, three types of values of “Advanced”, “Original”, and “UserDefined” can be set as the title type information TTTYPE. In this embodiment, video information recorded in an advanced video recording format that can be recorded, edited, and played back by the user can be used as part of the advanced content ADVCT. Video information recorded in the advanced video recording format is referred to as interoperable content. Title type information TTTYPE for the original title related to the interoperable content (interoperable content in a state immediately after recording and before editing) is set to “Original”. Further, the title type information TTTYPE for the title (defined by the user) edited by the user regarding the interoperable content is set to “UserDefined”. For other advanced contents ADVCT, “Advanced” is set. In the present embodiment, the description of the title type information TTTYPE can be omitted in the title attribute information TTATRI. In this case, the default value “Advanced” is automatically set. Next, selection attribute information is described. This selection attribute information represents selection information as to whether or not a specified title can be handled by a user operation. For example, in the case of the system shown in FIG. 15, the user may go to the large screen television monitor 15 and perform a screen operation (for example, fast forward FF or rewind FR) by a remote controller (not shown). The process instructed by the user is called a user operation, and the selection attribute information (selectable attribution) indicates whether or not a title is processed in response to the user operation. This information is filled with either “true” or “false” words. For example, if it is difficult for the video content of the corresponding title to be fast-forwarded to the user such as a commercial CM 44 or a screening notice 41, the entire corresponding title can be prohibited from user operation. In this case, the selection attribute information is set to “false”, the corresponding title is prohibited from user operation, and a request such as fast forward or rewind by the user can be rejected. When this value is “true”, it corresponds to the user's operation, and processing (user operation) such as rewinding or fast-forwarding can be performed in response to the user's request. In the present embodiment, a default value is set to “true” (can handle user operations) as information on the selection attribute (selectable attribution). In the advanced content playback unit ADVPL (see FIG. 15), the title playback processing method greatly changes based on the selection attribute information. Therefore, the convenience of the advanced content playback unit ADVPL processing can be improved by arranging the selection attribute information immediately after the title ID information TTID and preceding the other information. In the present embodiment, it is possible to omit the description of the selection attribute information in the title element tag. If the description is omitted, the default value “true” is set.

フレームレート情報は画面表示する映像の1秒間のフレーム数を表し、タイトルタイムラインTMLEの基準時間間隔に対応する。図21で説明したように、本実施形態ではタイトルタイムラインTMLEとして、50Hz系(1秒間にタイトルタイムラインTMLE上で50カウント分だけカウントアップされる)と、60Hz系(1秒間にタイトルタイムラインTMLE上で60カウント分だけカウントアップされる)の2方式が設定可能としている。例えばNTSCにおけるインターレース表示の場合には、1秒間に30フレーム(60フィールド)が表示される。この場合には60Hz系に対応し、タイトルタイムラインの1刻みの間隔(1カウントの時間間隔)が1/60秒となる。本実施形態において、タイトルタイムラインTMLEに準拠したクロックをメディアクロックと呼び、マークアップMRKUP毎に設定されるクロックであるページクロックと区別される。更に本実施形態では、マークアップMRKUP内で指定されるアドバンストアプリケーションADAPL実行時に定義されるアプリケーションクロックが存在する。前記ページクロックと前記アプリケーションクロックの基準周波数は互いに等しくチッククロックの周波数と呼ぶ。本実施形態では前記タイトルタイムラインTMLEに対応したメディアクロックと前記チッククロックが独自に設定可能にした所に大きな特徴がある。それにより例えば、プライマリーオーディオビデオPRMAVの映像情報に対する高速再生や巻戻し再生などの特殊再生を行っている最中にアドバンストアプリケーションADAPLで定義されたアニメーションに対して上記チッククロック(アプリケーションクロック)に基づく標準速度再生を行うことができ、ユーザーに対する表現形式を大幅に向上させることができる。前記マークアップページ内で使われるチッククロックの周波数情報TKBASEを“tickBase = ”の直後に記述する。前記マークアップMRKUP内で使われるチッククロックの周波数情報TKBASEの値は上記フレームレート(1秒間のフレーム数)情報として記述された値以下の値として設定されなければならない。それにより、チッククロックに基づくアドバンストアプリケーションADAPLの実行(アニメーションの表示など)をタイトルタイムラインTMLEに合わせて(メディアクロックと矛盾が起きないように)スムーズに表示することが可能となるばかりでなく、アドバンストコンテンツ再生部ADVPL内の回路構造の簡素化を図ることができる。本実施形態においてタイトルの属性情報TTATRI内に前記マークアップ内で使われるチッククロックの周波数情報TKBASEの記述を省くことができる。この場合には、チッククロックの周波数TKBASEの値としてはデフォルト値であるフレームレート(1秒間のフレーム数)情報の値に自動的に一致される。タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURは、対応したタイトル上でのタイトルタイムラインTMLEの全体の長さを表している。タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURは、フレームレート(1秒間のフレーム数)情報に対応した50Hz系もしくは60Hz系のトータルカウント数で記述される。例えば該当するタイトルの全体の表示時間がn秒の場合にはタイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURとしてはトータルカウント数として60nまたは50nの値が入る。本実施形態において全ての再生オブジェクトの終了時間は、前記タイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURより小さくならなければならない。このようにタイトルタイムラインTMLE上でのタイトル全体の時間的な長さ情報TTDURはタイトルタイムラインTMLE上の時間刻み間隔に依存するため、この情報をフレームレート情報の後ろに配置することでアドバンストコンテンツ再生部ADVPLのデータ処理のし易さを向上させている。   The frame rate information represents the number of frames per second of video displayed on the screen and corresponds to the reference time interval of the title timeline TMLE. As described with reference to FIG. 21, in the present embodiment, the title timeline TMLE includes 50 Hz system (which is counted up by 50 counts on the title timeline TMLE per second) and 60 Hz system (title timeline per second). (Two counts are counted up on the TMLE). For example, in the case of NTSC interlaced display, 30 frames (60 fields) are displayed per second. In this case, it corresponds to the 60 Hz system, and the time interval (1 count time interval) of the title timeline is 1/60 second. In the present embodiment, a clock that complies with the title timeline TMLE is called a media clock, and is distinguished from a page clock that is a clock set for each markup MRKUP. Furthermore, in the present embodiment, there is an application clock defined when the advanced application ADAPL specified in the markup MRKUP is executed. The reference frequencies of the page clock and the application clock are equal to each other and are called the tick clock frequencies. The present embodiment is characterized in that the media clock corresponding to the title timeline TMLE and the tick clock can be set independently. As a result, for example, a standard based on the above tick clock (application clock) for animation defined by the advanced application ADAPL during special playback such as high-speed playback and rewind playback for the video information of the primary audio video PRMAV. Speed playback can be performed, and the expression format for the user can be greatly improved. The frequency information TKBASE of the tick clock used in the markup page is described immediately after “tickBase =”. The value of the frequency information TKBASE of the tick clock used in the markup MRKUP must be set to a value equal to or less than the value described as the frame rate (number of frames per second) information. As a result, the advanced application ADAPL based on the tick clock (animation display, etc.) can be displayed smoothly (to avoid conflict with the media clock) in line with the title timeline TMLE. The circuit structure in the advanced content playback unit ADVPL can be simplified. In this embodiment, it is possible to omit the description of the frequency information TKBASE of the tick clock used in the markup in the title attribute information TTATRI. In this case, the value of the frame rate (number of frames per second) information that is the default value is automatically matched as the value of the frequency TKBASE of the tick clock. The time length information TTDUR of the entire title on the title timeline TMLE represents the entire length of the title timeline TMLE on the corresponding title. The time length information TTDUR of the entire title on the title timeline TMLE is described by a total count number of 50 Hz system or 60 Hz system corresponding to the frame rate (number of frames per second) information. For example, when the display time of the entire title is n seconds, the total time count information TTDUR on the title timeline TMLE includes a value of 60n or 50n. In the present embodiment, the end times of all playback objects must be smaller than the time length information TTDUR of the entire title on the title timeline TMLE. In this way, the time length information TTDUR of the entire title on the title timeline TMLE depends on the time step interval on the title timeline TMLE, so by placing this information behind the frame rate information, advanced content The ease of data processing of the playback unit ADVPL is improved.

次のパレンタルレベル情報は再生対応したタイトルのパレンタルレベルを示している。   The next parental level information indicates the parental level of the title corresponding to playback.

前記パレンタルレベルの値は8以下の数字を記入する。本実施形態において、前記タイトルエレメントタグ内でこの情報を省くことも可能である。デフォルト値としての値は“1”として設定される。   The parental level value is a number of 8 or less. In the present embodiment, this information can be omitted in the title element tag. The default value is set as “1”.

このタイトル終了後に表示されるべきタイトルの番号情報を表すonEnd情報は、現在のタイトルが終了した後、次に再生すべきタイトルに関するタイトル番号の情報が記載される。前記タイトル番号に記入される値が“0”の時は、タイトル終了後にポーズ(終了画面を表示したまま)となる。デフォルト値としてはこの値は“0”に設定される。またタイトルエレメントタグ内でこの情報の記載を省くことも可能であり、その場合にはデフォルト値の“0”に設定される。   OnEnd information indicating the number information of the title to be displayed after the title ends, information on the title number related to the title to be reproduced next after the current title ends. When the value entered in the title number is “0”, it pauses after the title ends (while the end screen is displayed). As a default value, this value is set to “0”. It is also possible to omit the description of this information in the title element tag. In this case, the default value “0” is set.

前記情報記録再生装置1が表示するタイトル名情報であるdisplayNameは、対応するタイトルの名前がテキストフォーマットで記述される。ここに記載された情報が情報記録再生装置1のタイトル名として表示することができる。また、この情報はタイトルエレメントタグ内で省くことも可能である。更にタイトルの初期状態におけるメニュー言語情報DEFLNGは、対応するタイトルに関するメニューを表示する時の初期状態における言語(日本語、英語など)を示している。前記の値はISO-639内で定義された言語名を表すコード(two-letter・lowercase・symbols)から構成される。図51に示すプロファイルパラメーターの中で設定されたメニュー言語(menuLanguage)に合致したタイトル内でのアプリケーションセグメントAPPLSGに関する記述(定義)が前記プレイリストPLLST内に存在しない場合には、前記タイトルの初期状態におけるメニュー言語情報DEFLNG(defaultLanguage)で設定された値(言語)に基づくアプリケーションセグメントAPPLSGが有効となる。このように前記情報を活用することにより、複数の言語に基づいてアプリケーションセグメントAPPLSGが複数設定された場合の最適なアプリケーションセグメントAPPLSGの選択抽出が容易となる。前記タイトルの初期状態におけるメニュー言語情報DEFLNGは、タイトルの属性情報TTATRI内での記述を省略することができる。更にタイトルに関する付加情報(description)の欄には、前記タイトルに関する付加情報がテキストフォーマットで記載される。前記情報はタイトルエレメントタグ内で記載を省略することが可能となる。前記情報記録再生装置1が表示するタイトル名情報(displayName)とタイトルに関する付加情報(description)は、アドバンストコンテンツ再生部ADVPLの再生用処理を行う上での本質的な情報ではないので、タイトルの属性情報TTATRI内で後ろの場所に記録される。最後にタイトルエレメントに対応したファイル保存場所URI記述形式XMBASEは、XMLに準拠したURI(ユニフォームリソースインフォメーション)に関する記述形式フォーマット(XML_BASE)を示している。   In displayName, which is the title name information displayed by the information recording / reproducing apparatus 1, the name of the corresponding title is described in a text format. The information described here can be displayed as the title name of the information recording / reproducing apparatus 1. This information can also be omitted in the title element tag. Further, the menu language information DEFLNG in the initial state of the title indicates the language (Japanese, English, etc.) in the initial state when the menu related to the corresponding title is displayed. The value is composed of codes (two-letter, lowercase, symbols) representing language names defined in ISO-639. When there is no description (definition) regarding the application segment APPLSG in the title that matches the menu language (menuLanguage) set in the profile parameter shown in FIG. 51, the initial state of the title The application segment APPLSG based on the value (language) set in the menu language information DEFLNG (defaultLanguage) is enabled. By utilizing the information as described above, it becomes easy to select and extract the optimum application segment APPLSG when a plurality of application segments APPLSG are set based on a plurality of languages. The menu language information DEFLNG in the initial state of the title can be omitted in the title attribute information TTATRI. Further, in the column of additional information (description) relating to the title, additional information relating to the title is described in a text format. The information can be omitted from the title element tag. The title name information (displayName) and the additional information (description) related to the title displayed by the information recording / playback apparatus 1 are not essential information for performing the playback process of the advanced content playback unit ADVPL. Information is recorded at a later location in TTATRI. Finally, the file storage location URI description format XMBASE corresponding to the title element indicates a description format (XML_BASE) related to a URI (Uniform Resource Information) compliant with XML.

タイトルエレメントタグの具体的な情報例として例えばタイトルの識別用ID情報を“Ando”とし、60Hz系でのタイトル全体の時間的な長さが80000の場合には、
記述例:< Title = ‘Ando’titleDuration = ‘80000’>と記載される。
As a specific information example of the title element tag, for example, when the title identification ID information is “Ando” and the time length of the entire title in the 60 Hz system is 80000,
Description example: <Title = 'Ando'titleDuration =' 80000 '> is described.

60Hz系においては、1秒間にタイトルタイムラインTMLEのカウント数が60カウントアップされるので前記80000の値は80000÷60÷60 ≒ 22分に対応する。   In the 60 Hz system, the count of the title timeline TMLE is incremented by 60 per second, so the value of 80000 corresponds to 80000 ÷ 60 ÷ 60≈22 minutes.

タイトルエレメント情報TTELEM内の情報は、図27(c)に示す各表示クリップエレメントのリストで記述されるオブジェクトマッピングインフォメーションOBMAPIと、タイトルリソースエレメントが記録されているリソースインフォメーションRESRCIと、チャプターリストエレメントが記載されているプレイバックシーケンスインフォメーションPLSQIとトラックリストナビゲーションリストエレメントで記載されるトラックナビゲーションインフォメーションTRNAVIから構成されている。前記表示クリップエレメントは、図28(c)に示すようにプライマリーオーディオビデオクリップPRAVCPとサブスティテュートオーディオビデオクリップSBAVCP、サブスティテュートオーディオクリップSBADCP、セカンダリーオーディオビデオクリップSCAVCP、アドバンストサブタイトルセグメントADSTSGとアプリケーションセグメントAPPLSGで記述される。前記表示クリップエレメントは、タイトル内のオブジェクトマッピングインフォメーションOBMAPI内に記述される。また、前記表示クリップエレメントは各エレメンタリーストリームに対応してトラックナンバーアサイメントインフォメーションの一部として記述される。   Information in the title element information TTELEM describes object mapping information OBMAPI described in the list of each display clip element shown in FIG. 27C, resource information RESRCI in which the title resource element is recorded, and a chapter list element. Playback sequence information PLSQI and track navigation information TRNAVI described in the track list navigation list element. The display clip element is described by a primary audio video clip PRAVCP, a substitute audio video clip SBAVCP, a substitute audio clip SBADCP, a secondary audio video clip SCAVCP, an advanced subtitle segment ADSTSG and an application segment APPLSG as shown in FIG. Is done. The display clip element is described in the object mapping information OBMAPI in the title. The display clip element is described as a part of track number assignment information corresponding to each elementary stream.

プレイバックシーケンスインフォメーションPLSQIは図28(d)に示すようにチャプターリストエレメントのリストとして記載される。   The playback sequence information PLSQI is described as a list of chapter list elements as shown in FIG.

プレイバックシーケンスインフォメーションPLSQI内でのチャプターリストエレメントは、タイトル内のチャプター構造を記述している。チャプターリストエレメントはチャプターエレメント(図28(d)に示すように<Chapter title Time Begin >タグから始まる各行)のリストとして記述されている。チャプターリスト内で最初に記述されたチャプターエレメントの番号を“1”とし、それぞれ各チャプターエレメントの記述順番に応じて各チャプター番号が設定される。1個のチャプターリスト(タイトル)内でのチャプター数は512以下と設定し、アドバンストコンテンツ再生部ADVPLでの処理時の発散を防いでいる。各チャプターエレメント内でのtitleTimeBegin属性(“<Chapter title Time Begin > = ”以降に記載される情報)は、タイトルタイムライン上での各チャプターの開始位置を示す時刻情報(タイトルタイムラインTMLE上でのカウント数)を表している。前記各チャプターの開始位置を示す時刻情報は、時・分・秒・フレーム数を表した“HH:MM:SS:FF”により表示される。このチャプターの終了位置は次のチャプターの開始位置で表される。また、最後のチャプターの終了位置に関してはタイトルタイムラインTMLE上の最後の値(カウント値)として解釈される。各チャプターのタイトルタイムラインTMLE上での開始位置を表す時刻情報(カウント値)は、各チャプター番号の増加(インクリメント)に対応して単調に増加するように設定されなければならない。このように設定することにより各チャプターの再生順に従った順次ジャンプアクセス制御が容易となる。チャプターエレメント毎の付加情報は、人が理解し易いようにテキストフォーマットで記述される。また前記チャプターエレメント毎の付加情報は、チャプターエレメントタグ内での記述を省くことができる。更に、“displayName = ”の直後に対応チャプター名を人が理解し易いテキストフォーマットで記述することができる。アドバンストコンテンツ再生部ADVPL(図15参照)は、前記対応チャプター名情報を各チャプター毎の名前として、大画面TVモニター15上に表示することができる。また、前記対応チャプター名情報は、前記チャプターエレメントタグ内での記述を省くことができる。   The chapter list element in the playback sequence information PLSQI describes the chapter structure in the title. The chapter list element is described as a list of chapter elements (each line starting from the <Chapter title Time Begin> tag as shown in FIG. 28D). The number of the chapter element described first in the chapter list is “1”, and each chapter number is set according to the description order of each chapter element. The number of chapters in one chapter list (title) is set to 512 or less to prevent divergence during processing in the advanced content playback unit ADVPL. The titleTimeBegin attribute in each chapter element (information described after “<Chapter title Time Begin> =”) is time information indicating the start position of each chapter on the title timeline (on the title timeline TMLE). Count number). The time information indicating the start position of each chapter is displayed by “HH: MM: SS: FF” representing the hour, minute, second, and number of frames. The end position of this chapter is represented by the start position of the next chapter. The end position of the last chapter is interpreted as the last value (count value) on the title timeline TMLE. The time information (count value) indicating the start position of each chapter on the title timeline TMLE must be set so as to increase monotonically in accordance with the increase (increment) of each chapter number. This setting facilitates sequential jump access control according to the playback order of each chapter. The additional information for each chapter element is described in a text format so that it can be easily understood by a person. The additional information for each chapter element can be omitted from the description in the chapter element tag. Furthermore, immediately after “displayName =”, the corresponding chapter name can be described in a text format that is easy for humans to understand. The advanced content playback unit ADVPL (see FIG. 15) can display the corresponding chapter name information on the large screen TV monitor 15 as the name of each chapter. The corresponding chapter name information can omit the description in the chapter element tag.

前述した図12で定義された各種再生表示オブジェクトのアドバンストコンテンツ再生部ADVPL内でのデータの流れを図29に示す。   FIG. 29 shows the data flow in the advanced content playback unit ADVPL of the various playback display objects defined in FIG. 12 described above.

図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL内の構造を図16に示した。図29における情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバーNTSRVはそれぞれ図16の対応するものに一致する。図29におけるストリーミングバッファーSTRBUFとファイルキャッシュFLCCHを総称してデータキャッシュDTCCHと呼び、図16のデータキャッシュDTCCHに対応する。図29におけるプライマリービデオプレーヤーPRMVP、セカンダリービデオプレーヤーSCDVP、メインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブピクチャーデコーダーSPDEC、サブビデオデコーダーSVBEC、サブオーディオデコーダーSADEC、アドバンストアプリケーションプレゼンテーションエンジンAAPEN及びアドバンストサブタイトルプレーヤーASBPLは、図16におけるプレゼンテーションエンジンPRESENに含まれる。また、アドバンストコンテンツ再生部ADVPL内での各種再生表示オブジェクトデーターの流れを管理する部分が図16におけるナビゲーションマネージャーNVMNGであり、各種アドバンストコンテンツADVCTの保存場所とアドバンストコンテンツ再生部ADVPL間のデータの仲介をする部分が図16におけるデータアクセスマネージャーDAMNGになる。   The structure in the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15 is shown in FIG. The information storage medium DISC, persistent storage PRSTR, and network server NTSRV in FIG. 29 correspond to the corresponding ones in FIG. The streaming buffer STRBUF and the file cache FLCCH in FIG. 29 are collectively referred to as a data cache DTCCH and correspond to the data cache DTCCH in FIG. The primary video player PRMVP, secondary video player SCDVP, main video decoder MVDEC, main audio decoder MADEC, sub picture decoder SPDEC, sub video decoder SVBEC, sub audio decoder SADEC, advanced application presentation engine AAPEN and advanced subtitle player ASBPL in FIG. It is included in the presentation engine PRESEN in FIG. In addition, the navigation manager NVMNG in FIG. 16 manages the flow of various playback display object data in the advanced content playback unit ADVPL. The portion to be used is the data access manager DAMNG in FIG.

図12に示すように再生オブジェクトの再生時にはプライマリービデオセットPRMVSのデータは情報記憶媒体DISCに記録されている必要がある。   As shown in FIG. 12, the data of the primary video set PRMVS needs to be recorded on the information storage medium DISC when the playback object is played back.

本実施形態においてプライマリービデオセットPRMVSは、高解像度の映像情報をも取り扱うことができる。従って、プライマリービデオセットPRMVSのデータ転送レートが非常に高くなる危険性がある。ネットワークサーバーNTSRVから直接再生を試みた場合もしくはネットワークライン上での一時的なデータ転送レートの低下が生じた場合に、ユーザーに対する連続的な映像表現が中断される危険がある。また図47に示すようにパーシステントストレージPRSTRとしてSDカードSDCDやUSBメモリーUSBM、USBHDD、NASなど多様な情報記憶媒体を想定しており、パーシステントストレージPRSTRとして使用される情報記憶媒体によってはデータ転送レートの低い場合も想定される。従って、本実施形態において高解像度の映像情報をも取り扱うことのできるプライマリービデオセットPRMVSが前記情報記憶媒体DISCのみに記録可能にすることにより高解像度のプライマリービデオセットPRMVSのデータに対しても中断することなく、ユーザーへの連続表示を保証することができる。このように情報記憶媒体DISCから読み出されたプライマリービデオセットPRMVSは、プライマリービデオプレーヤーPRMVP内へ転送される。プライマリービデオセットPRMVS内ではメインビデオMANVD、メインオーディオMANAD、サブビデオSUBVD、サブオーディオSUBADと副映像SUBPTが2048単位のパックとして多重化されて記録されている。それぞれのパックは再生時に分割され、メインビデオデコーダーMVDEC、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDEC、サブオーディオデコーダーSADECとサブピクチャーデコーダーSPDEC内でデコード処理される。セカンダリービデオセットSCDVSのオブジェクトは情報記憶媒体DISCかパーシステントストレージPRSTRから直接再生されるルートと、一時データキャッシュDTCCHに保存された後データキャッシュDTCCHから再生される方法との2種類の方法を本実施形態では認めている。前述した最初の方法においては、情報記憶媒体DISCまたはパーシステントストレージPRSTRに記録されたセカンダリービデオセットSCDVSが直接セカンダリービデオプレーヤーSCDVPに転送され、メインオーディオデコーダーMADEC、サブビデオデコーダーSVDECまたはサブオーディオデコーダーSADECによりデコード処理される。また前述した2番目の方法としてセカンダリービデオセットSCDVSは情報記憶媒体DISC、パーシステントストレージPRSTR、ネットワークサーバーNTSRVのいずれに記録されている場合もデータキャッシュDTCCH内に一度記録され、データキャッシュDTCCHからセカンダリービデオプレーヤーSCDVPへ送られる。この時情報記憶媒体DISCまたはパーシステントストレージPRSTR内に記録されているセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のファイルキャッシュFLCCHに記録されるが、ネットワークサーバーNTSRVに記録されているセカンダリービデオセットSCDVSはストリーミングバッフアーSTRBUFに一時保存される。情報記憶媒体DISCまたはパーシステントストレージPRSTRからのデータ転送に対しては大幅にデータ転送レートが低下することはない。しかし、ネットワークサーバーNTSRVから送られてくるオブジェクトデーターのデータ転送レートはネットワーク事情で一時的に大幅に低下する危険性がある。従ってネットワークサーバーNTSRVから送られてくるセカンダリービデオセットSCDVSに対しては、ストリーミングバッファーSTRBUFに記録することでシステム的なネットワーク上のデータ転送レートの低下をバックアップすると共にユーザー表示時の連続再生を保証できるようにしている。また、本実施形態ではそれに限らずネットワークサーバーNTSRV内に記録されたセカンダリービデオセットSCDVSのデータをパーシステントストレージPRSTRに保存することもできる。その後、パーシステントストレージPRSTRからセカンダリービデオプレーヤーSCDVPにセカンダリービデオセットSCDVSの情報を転送し、再生表示することも可能である。   In this embodiment, the primary video set PRMVS can handle high-resolution video information. Therefore, there is a risk that the data transfer rate of the primary video set PRMVS becomes very high. When direct playback is attempted from the network server NTSRV or when the data transfer rate temporarily drops on the network line, there is a risk that continuous video expression to the user will be interrupted. As shown in FIG. 47, various information storage media such as SD card SDCD, USB memory USBM, USBHDD, NAS are assumed as persistent storage PRSTR. Depending on the information storage medium used as persistent storage PRSTR, data transfer is possible. A low rate is also assumed. Therefore, in this embodiment, the primary video set PRMVS capable of handling high-resolution video information can be recorded only in the information storage medium DISC, thereby interrupting the data of the high-resolution primary video set PRMVS. Without being able to guarantee continuous display to the user. The primary video set PRMVS read out from the information storage medium DISC in this way is transferred into the primary video player PRMVP. In the primary video set PRMVS, main video MANVD, main audio MANAD, sub video SUBVD, sub audio SUBAD, and sub video SUBPT are multiplexed and recorded as 2048 unit packs. Each pack is divided at the time of reproduction, and is decoded in the main video decoder MVDEC, main audio decoder MADEC, sub video decoder SVDEC, sub audio decoder SADEC and sub picture decoder SPDEC. The object of the secondary video set SCDVS is implemented in two ways: a route that is directly reproduced from the information storage medium DISC or persistent storage PRSTR, and a method that is stored in the temporary data cache DTCCH and then reproduced from the data cache DTCCH. The form allows it. In the first method described above, the secondary video set SCDVS recorded in the information storage medium DISC or the persistent storage PRSTR is directly transferred to the secondary video player SCDVP, and the main audio decoder MADEC, sub video decoder SVDEC or sub audio decoder SADEC. Decoded. As a second method, the secondary video set SCDVS is recorded once in the data cache DTCCH and recorded from the data cache DTCCH, regardless of whether it is recorded on the information storage medium DISC, persistent storage PRSTR, or network server NTSRV. Sent to player SCDVP. At this time, the secondary video set SCDVS recorded in the information storage medium DISC or persistent storage PRSTR is recorded in the file cache FLCCH in the data cache DTCCH, but the secondary video set SCDVS recorded in the network server NTSRV is Temporarily saved in the streaming buffer STRBUF. For data transfer from the information storage medium DISC or persistent storage PRSTR, the data transfer rate is not significantly reduced. However, there is a risk that the data transfer rate of object data sent from the network server NTSRV will be significantly reduced temporarily due to network conditions. Therefore, for the secondary video set SCDVS sent from the network server NTSRV, recording in the streaming buffer STRBUF can back up the decline in the data transfer rate on the system network and guarantee continuous playback during user display. Like that. In the present embodiment, the data of the secondary video set SCDVS recorded in the network server NTSRV can be stored in the persistent storage PRSTR without being limited thereto. Thereafter, the information of the secondary video set SCDVS can be transferred from the persistent storage PRSTR to the secondary video player SCDVP for display.

図12に示すように、アドバンストアプリケーションADAPLとアドバンストサブタイトルADSBTの情報はオブジェクトの記録場所によらず、全て一時的にデータキャッシュDTCCH内のファイルキャッシュFLCCH内に保存するようにしている。それによりプライマリービデオセットPRMVSや、セカンダリービデオセットSCDVSとの同時再生時の図15に示す情報記録再生部内における光学ヘッドのアクセス回数を減らし、ユーザーへの連続表示を保証することができる。このようにファイルキャッシュFLCCH内に一時保存されたアドバンストアプリケーションADAPLは、アドバンストアプリケーションプレゼンテーションエンジンAAPENに送られ、ユーザーへの表示処理がなされる。また、ファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTの情報はアドバンストサブタイトルプレーヤーASBPLに転送され、ユーザーに表示される。   As shown in FIG. 12, all the information on the advanced application ADAPL and advanced subtitle ADSBT is temporarily stored in the file cache FLCCH in the data cache DTCCH regardless of the recording location of the object. Thereby, the number of accesses of the optical head in the information recording / reproducing unit shown in FIG. 15 during simultaneous reproduction with the primary video set PRMVS and the secondary video set SCDVS can be reduced, and continuous display to the user can be ensured. The advanced application ADAPL temporarily stored in the file cache FLCCH in this way is sent to the advanced application presentation engine AAPEN for display processing to the user. Further, the information of the advanced subtitle ADSBT stored in the file cache FLCCH is transferred to the advanced subtitle player ASBPL and displayed to the user.

図16に示したアドバンストコンテンツ再生部ADVPL内のデータアクセスマネージャーDAMNG内の構造を図30に示す。   FIG. 30 shows the structure in the data access manager DAMNG in the advanced content playback unit ADVPL shown in FIG.

本実施形態におけるデータアクセスマネージャーDAMNGは、パーシステントストレージPRSTR、ネットワークサーバーNTSRVおよび情報記憶媒体DISC内に記録された各種再生オブジェクトのアドバンストコンテンツ再生部ADVPL内へのやりとりを制御する場所である。データアクセスマネージャーDAMNGはディスクマネージャーDKMNG、パーシステントストレージマネージャーPRMNGとネットワークマネージャーNTMNGから構成される。始めにディスクマネージャーDKMNGの動作説明を行う。本実施形態においてディスクマネージャーDKMNGは情報記憶媒体DISCから情報を読取り、アドバンストコンテンツ再生部ADVPL内の各種内部モジュールへデータを転送する時のデータ制御を行う。ディスクマネージャーDKMNGは本実施形態における情報記憶媒体DISCに対し、API(アプリケーションインターフェース)のコマンドに従い情報記憶媒体DISC内に記録された各種ファイルの再生を行う。本実施形態において、情報記憶媒体DISCへの情報の書込み機能は前提としていない。   The data access manager DAMNG in this embodiment is a place that controls the exchange of various playback objects recorded in the persistent storage PRSTR, the network server NTSRV, and the information storage medium DISC into the advanced content playback unit ADVPL. The data access manager DAMNG is composed of a disk manager DKMNG, a persistent storage manager PRMNG, and a network manager NTMNG. First, the operation of Disk Manager DKMNG will be explained. In this embodiment, the disk manager DKMNG performs data control when reading information from the information storage medium DISC and transferring data to various internal modules in the advanced content playback unit ADVPL. The disk manager DKMNG reproduces various files recorded in the information storage medium DISC in accordance with API (application interface) commands with respect to the information storage medium DISC in the present embodiment. In the present embodiment, the function of writing information to the information storage medium DISC is not assumed.

パーシステントストレージマネージャーPRMNGは、パーシステントストレージPRSTRとアドバンストコンテンツ再生部ADVPL内の各種内部モジュールとの間のデータ転送を制御している。パーシステントストレージマネージャーPRMNGも前述したディスクマネージャーDKMNGと同様、APIのコマンドセットに対応して、パーシステントストレージPRSTR内のファイルアクセス制御(ファイルの読取り制御)を行う。本実施形態におけるパーシステントストレージPRSTRは、記録と再生機能を前提としている。   The persistent storage manager PRMNG controls data transfer between the persistent storage PRSTR and various internal modules in the advanced content playback unit ADVPL. The persistent storage manager PRMNG performs file access control (file read control) in the persistent storage PRSTR in accordance with the API command set in the same manner as the disk manager DKMNG described above. The persistent storage PRSTR in this embodiment is premised on recording and playback functions.

ネットワークマネージャーNTMNGは、ネットワークサーバーNTSRVとアドバンストコンテンツ再生部ADVPL内における内部モジュールとの間のデータ転送制御を行う。ネットワークマネージャーNTMNGはネットワークサーバーNTSRVに対するAPIセットのコマンドに基づきファイルアクセス制御(ファイルの読取り制御)を行う。本実施形態において、ネットワークサーバーNTSRVはネットワークサーバーNTSRVからのファイルダウンロードを通常サポートするだけでなく、ネットワークサーバーNTSRVへのファイルアップロードもサポートできる。   The network manager NTMNG performs data transfer control between the network server NTSRV and an internal module in the advanced content playback unit ADVPL. The network manager NTMNG performs file access control (file read control) based on the API set command for the network server NTSRV. In this embodiment, the network server NTSRV not only normally supports file download from the network server NTSRV, but can also support file upload to the network server NTSRV.

さらに、本実施形態においては、ネットワークマネージャーNTMNGが、プレゼンテーションエンジンPRSENへ送る各種再生オブジェクトのプロトコルレベルでのアクセス制御機能まで管理している。また、図29に示すようにセカンダリービデオセットSCDVSがネットワークサーバーNTSRVからストリーミングバッファーSTRBUFを返してセカンダリービデオプレーヤーSCDVPへのデータ転送制御を行うことができる。これらの制御もネットワークマネージャーNTMNGが制御・管理している。   Further, in this embodiment, the network manager NTMNG manages the access control function at the protocol level of various playback objects to be sent to the presentation engine PRSEN. Also, as shown in FIG. 29, the secondary video set SCDVS can return the streaming buffer STRBUF from the network server NTSRV and perform data transfer control to the secondary video player SCDVP. These controls are also controlled and managed by the network manager NTMNG.

図16に示したアドバンストコンテンツ再生部ADVPL内のデータキャッシュDTCCH内の構造を図31に示す。   FIG. 31 shows the structure in the data cache DTCCH in the advanced content playback unit ADVPL shown in FIG.

本実施形態においてデータキャッシュDTCCHは、テンポラルなデータの一時保存場所として下記に述べる2種類の領域に分割される。最初の領域はファイルキャッシュFLCCHであり、ファイルデーターに対する一時保管場所(テンポラルバッファー)として使われる。また、次の領域として本実施形態ではストリーミングデーターに対する一時保管場所として使用されるストリーミングバッファーSTRBUFを定義することができる。図29に示すように本実施形態においては、ストリーミングバッファーSTRBUFにはネットワークサーバーNTSRVから転送されたセカンダリービデオセットSCDVSが一時保存可能な形となっている。また前記ストリーミングバッファーSTRBUF内にはセカンダリービデオセットSCDVSに含まれるサブスティテュートオーディオSBTAD、サブスティテュートオーディオビデオSBTAV、またはセカンダリーオーディオビデオSCDAVが一時的に記録される。プレイリストPLLST内のリソースインフォメーションRESRCIの中のストリーミングバッファーSTRBUFに関する情報記述欄の中にデータキャッシュDTCCH内に割当てられるストリーミングバッファーSTRBUF領域に関する情報(ストリーミングバッファーSTRBUF領域のサイズやストリーミングバッファーSTRBUF領域として割り付けられるメモリー空間上のアドレス範囲など)が記載される。   In the present embodiment, the data cache DTCCH is divided into two types of areas described below as temporary storage locations for temporal data. The first area is the file cache FLCCH, which is used as a temporary storage location (temporal buffer) for file data. In the present embodiment, a streaming buffer STRBUF used as a temporary storage location for streaming data can be defined as the next area. As shown in FIG. 29, in this embodiment, the secondary video set SCDVS transferred from the network server NTSRV can be temporarily stored in the streaming buffer STRBUF. Further, the substitute audio SBTAD, the substitute audio video SBTAV, or the secondary audio video SCDAV included in the secondary video set SCDVS is temporarily recorded in the streaming buffer STRBUF. Information about the streaming buffer STRBUF area allocated in the data cache DTCCH in the information description column for the streaming buffer STRBUF in the resource information RESRCI in the playlist PLLST (the size of the streaming buffer STRBUF area and the memory allocated as the streaming buffer STRBUF area) Address range in space).

また、アドバンストコンテンツADVCTの再生起動処理(スタートアップシーケンス)中に前記データキャッシュDTCCHの割当て作業(ファイルキャッシュFLCCHに割当てるデータサイズとストリーミングバッファーSTRBUFに割当てるデータサイズの割付処理)がなされる。本実施形態において前記データキャッシュDTCCH内のデータサイズは、64MB以上あることを前提としている。64MB以上を前提とすることによりアドバンストアプリケーションADAPLやアドバンストサブタイトルADSBTのユーザーへの表示処理をスムーズに行うことを保証している。   In addition, the data cache DTCCH allocation operation (allocation processing of the data size allocated to the file cache FLCCH and the data size allocated to the streaming buffer STRBUF) is performed during the playback start processing (startup sequence) of the advanced content ADVCT. In the present embodiment, it is assumed that the data size in the data cache DTCCH is 64 MB or more. By assuming 64MB or more, it is guaranteed that the display process to the user of the advanced application ADAPL and advanced subtitle ADSBT will be performed smoothly.

本実施形態においてアドバンストコンテンツADVCT再生時の再生における起動処理時(スタートアップシーケンス)に、前述したデータキャッシュDTCCH内の割付作業(ファイルキャッシュFLCCHとストリーミングバッファーSTRBUFの割当てメモリサイズの設定など)の変更が行われる。プレイリストファイルPLLST内に前記ストリーミングバッファーSTRBUFに割当てるべきメモリサイズ情報が記述されている。もし、ストリーミングバッファーSTRBUFのサイズがプレイリストPLLST内に表示されていない場合には、ストリーミングバッファーSTRBUFに割当てられるメモリサイズは“0”とみなされる。図27に示すプレイリストファイルPLLST内の構造情報CONFGI内で記述されるストリーミングバッファーSTRBUFのサイズ情報はパックサイズ(論理ブロックサイズまたは論理セクタサイズ)を単位として記述される。本実施形態において1パックサイズと1論理ブロックサイズと1論理セクタサイズは全て一致し、2048バイト(約2キロバイト)となる。例えば前述した構造情報CONFGI内で記述されるストリーミングバッファーサイズが1024と記述された場合には、実際にデータキャッシュDTCCH内で割当てられるストリーミングバッファーSTRBUFのメモリー空間上のサイズは、1024 × 2 = 2048キロバイトとなる。また、ストリーミングバッファーSTRBUFの最小サイズは0バイトと規定してある。本実施形態においてプライマリービデオセットPRMVS内に含まれるプライマリーエンハンストビデオオブジェクトP-EVOBやセカンダリービデオセットSCDVS内に含まれるセカンダリーエンハンストビデオオブジェクトS-EVOBは、それぞれパック単位のストリームが論理ブロック(論理セクタ)毎に記録されている。従って本実施形態においてストリーミングバッファーSTRBUFのサイズ情報をパックサイズ(論理ブロックサイズまたは論理セクタサイズ)を単位として記述することにより、各ストリームパックへのアクセス制御を容易にするという効果がある。   In the present embodiment, during the start-up process (startup sequence) in playback during playback of advanced content ADVCT, the allocation work in the data cache DTCCH described above (such as setting the allocation memory size of the file cache FLCCH and streaming buffer STRBUF) is changed. Is called. Memory size information to be allocated to the streaming buffer STRBUF is described in the playlist file PLLST. If the size of the streaming buffer STRBUF is not displayed in the playlist PLLST, the memory size allocated to the streaming buffer STRBUF is regarded as “0”. The size information of the streaming buffer STRBUF described in the structure information CONFGI in the playlist file PLLST shown in FIG. 27 is described in units of pack size (logical block size or logical sector size). In the present embodiment, one pack size, one logical block size, and one logical sector size all match and become 2048 bytes (about 2 kilobytes). For example, if the streaming buffer size described in the structure information CONFGI described above is 1024, the size of the streaming buffer STRBUF actually allocated in the data cache DTCCH is 1024 × 2 = 2048 kilobytes. It becomes. The minimum size of the streaming buffer STRBUF is defined as 0 bytes. In this embodiment, the primary enhanced video object P-EVOB included in the primary video set PRMVS and the secondary enhanced video object S-EVOB included in the secondary video set SCDVS have a stream of pack units for each logical block (logical sector). Is recorded. Therefore, in the present embodiment, the size information of the streaming buffer STRBUF is described in units of pack size (logical block size or logical sector size), so that access control to each stream pack is facilitated.

ファイルキャッシュFLCCHは、データアクセスマネージャーDAMNGを経由して外部から取込まれたアドバンストコンテンツADVCTのデータを一時保存する場所として利用され、図31に示すようにナビゲーションマネージャーNVMNGとプレゼンテーションエンジンPRSENの両方が使用することができる。   The file cache FLCCH is used as a place to temporarily store advanced content ADVCT data imported from outside via the data access manager DAMNG, and is used by both the navigation manager NVMNG and the presentation engine PRSEN as shown in FIG. can do.

図31に示すように本実施形態では、ストリーミングバッファーSTRBUFはプレゼンテーションエンジンPRSENのみが使用するメモリ空間になっている。図29に示すように本実施形態では、ストリーミングバッファーSTRBUFはセカンダリービデオセットSCDVSのデータが記録され、セカンダリービデオプレーヤーSCDVPにおけるセカンダリービデオプレイバックエンジンSVPBENにより使用することができる。セカンダリービデオプレーヤーSCDVPは、ネットワークマネージャーNTMNG(図30に示すデータアクセスマネージャーDAMNG内に存在する)に要求を出し、セカンダリービデオセットSCDVS内のセカンダリーエンハンストビデオオブジェクトデーターS-EVOBの少なくとも一部をネットワークサーバーNTSRVから読取り、前記ストリーミングバッファーSTRBUFに一時保存する。その後、ストリーミングバッファーSTRBUF内に一時保存されたセカンダリーエンハンストビデオオブジェクトデーターS-EVOBをセカンダリービデオプレーヤーSCDVPが読取り、図39に示すセカンダリービデオプレーヤーSCDVP内のデマルチプレクサDEMUXへデータ転送しデコーダーエンジンDCDEN内でデコーダー処理が施される。   As shown in FIG. 31, in this embodiment, the streaming buffer STRBUF is a memory space used only by the presentation engine PRSEN. As shown in FIG. 29, in this embodiment, data of the secondary video set SCDVS is recorded in the streaming buffer STRBUF and can be used by the secondary video playback engine SVPBEN in the secondary video player SCDVP. The secondary video player SCDVP issues a request to the network manager NTMNG (existing in the data access manager DAMNG shown in FIG. 30), and at least a part of the secondary enhanced video object data S-EVOB in the secondary video set SCDVS is sent to the network server NTSRV. And temporarily stored in the streaming buffer STRBUF. Thereafter, the secondary enhanced video object data S-EVOB temporarily stored in the streaming buffer STRBUF is read by the secondary video player SCDVP and transferred to the demultiplexer DEMUX in the secondary video player SCDVP shown in FIG. Processing is performed.

図16に示したアドバンストコンテンツ再生部ADVPL内のナビゲーションマネージャーMVMNGの内部構造を図32に示す。本実施形態においてナビゲーションマネージャーNVMNGは、パーサーPARSER、プレイリストマネージャーPLMNG、アドバンストアプリケーションマネージャーADAMNG、ファイルキャッシュマネージャーFLCMNGとユーザーインターフェースエンジンUIENGの5つの主要な機能モジュールから構成される。   FIG. 32 shows the internal structure of the navigation manager MVMNG in the advanced content playback unit ADVPL shown in FIG. In this embodiment, the navigation manager NVMNG is composed of five main functional modules: a parser PARSER, a playlist manager PLMNG, an advanced application manager ADAMNG, a file cache manager FLCMNG, and a user interface engine UIENG.

本実施形態においては、プレイリストマネージャーPLMNGまたはアドバンストアプリケーションマネージャーADAMNGからのリクエストに応じ、アドバンストナビゲーションファイル(図13に示すアドバンストナビゲーションディレクトリADVNV内のマニュフェストファイルMNFST、マークアップファイルMRKUPとスクリプトファイルSCRPT)を図32に示すパーサーPARSERが解読し内容の分析処理を行う。パーサーPARSERは前記分析結果に基づき、各種必要な情報を各機能モジュールへ送る。   In this embodiment, an advanced navigation file (manifest file MNFST, markup file MRKUP, and script file SCRPT in the advanced navigation directory ADVNV shown in FIG. 13) is displayed in response to a request from the playlist manager PLMNG or the advanced application manager ADAMNG. The parser PARSER shown in FIG. 32 decodes and analyzes the contents. The parser PARSER sends various necessary information to each functional module based on the analysis result.

図32に示したプレイリストマネージャーPLMNG内では以下に示す処理を行う。   The following processing is performed in the playlist manager PLMNG shown in FIG.

・図16に示すアドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENとAVレンダラーAVRNDを始めとする全ての再生制御モジュールの初期化
・タイトルタイムラインTMLE制御(タイトルタイムラインTMLEに同期した各表示オブジェクトの同期化処理やユーザー表示時でのタイトルタイムラインTMLEの一時停止や早送り制御など)
・ファイルキャッシュFLCCH(データキャッシュDTCCH)内でのリソースマネージメント
・アドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENとAVレンダラーAVRNDを始めとした再生表示制御モジュールの管理
・プレイヤーシステムのインターフェース処理
本実施形態において、図32に示したプレイリストマネージャーPLMNGがプレイリストファイルPLLST内に記述された内容に基づき初期処理を行う。具体的な内容として、図31に示したデータキャッシュDTCCH内のファイルキャッシュFLCCHに割当てられるメモリ空間サイズとストリーミングバッファーSTRBUFとして割当てられるメモリ空間内のデータサイズをプレイリストマネージャーPLMNGが変更する。アドバンストコンテンツADVCTの再生表示時には前記プレイリストマネージャーPLMNGが各再生制御モジュールに対して必要な再生表示情報を転送処理している。例として、プライマリービデオマネージャーPRMVPに対しては、プライマリーエンハンストビデオオブジェクトデータP-EVOBの再生期間中にプライマリービデオセットPRMVSのタイムマップファイルPTMAPを送信する。また、アドバンストアプリケーションマネージャーADAMNGに対し、マニュフェストファイルMNFSTをプレイリストマネージャーPLMNGからデータ転送する。
-Initialization of all playback control modules including the presentation engine PRSEN and AV renderer AVRND in the advanced content playback unit ADVPL shown in Fig. 16-Title timeline TMLE control (synchronization of each display object synchronized with the title timeline TMLE) (Title processing of title timeline TMLE and fast-forward control during display and user display)
・ Resource management in file cache FLCCH (data cache DTCCH) ・ Management of playback display control modules including presentation engine PRSEN and AV renderer AVRND in advanced content playback unit ADVPL ・ Interface processing of player system In this embodiment, The playlist manager PLMNG shown in FIG. 32 performs an initial process based on the contents described in the playlist file PLLST. Specifically, the playlist manager PLMNG changes the memory space size allocated to the file cache FLCCH in the data cache DTCCH shown in FIG. 31 and the data size in the memory space allocated as the streaming buffer STRBUF. When the advanced content ADVCT is reproduced and displayed, the playlist manager PLMNG transfers the necessary reproduction display information to each reproduction control module. As an example, for the primary video manager PRMVP, the time map file PTMAP of the primary video set PRMVS is transmitted during the playback period of the primary enhanced video object data P-EVOB. Also, the manifest file MNFST is transferred from the playlist manager PLMNG to the advanced application manager ADAMNG.

プレイリストマネージャーPLMNGは以下の3つの制御を行う。   The playlist manager PLMNG performs the following three controls.

1) アドバンストアプリケーションADAPLからの要求に応じ、タイトルタイムラインTMLEの進行処理を行う。図21の説明の所で、アドバンストアプリケーションADAPL再生時のハードシンクジャンプによりマークアップページ遷移が生じる場合の説明を行った。例えば図20の例を用いて説明する。本編31とコマーシャル用の別画面32を同時に表示している最中にユーザーがアドバンストアプリケーションADAPLに含まれるヘルプアイコン33を押した場合に対応して、画面の下側に表示されているアドバンストアプリケーションADAPLにより構成される画面内容の変更(マークアップページの遷移)が生じる場合がある。この時、次に表示される画面の下側に表示されている内容(次に表示されるマークアップページ)の準備に所定の時間が必要なことがある。このような場合には次のマークアップページの準備が完了するまでの間にプレイリストマネージャーPLMNGがタイトルタイムラインTMLEの進行を止め、映像や音声を静止状態にすることがある。これらの処理をプレイリストマネージャーPLMNGが行う。   1) The title timeline TMLE is processed in response to a request from the advanced application ADAPL. In the description of FIG. 21, a case where markup page transition occurs due to a hard sync jump during playback of the advanced application ADAPL has been described. This will be described with reference to the example of FIG. The advanced application ADAPL displayed at the bottom of the screen in response to the user pressing the help icon 33 included in the advanced application ADAPL while the main volume 31 and the separate commercial screen 32 are displayed at the same time There may be a change in the screen content configured by (transition of markup page). At this time, a predetermined time may be required for preparation of the content displayed at the lower side of the screen to be displayed next (the markup page to be displayed next). In such a case, the playlist manager PLMNG may stop the progress of the title timeline TMLE until the next markup page is ready, and the video and audio may be in a stationary state. These processes are performed by the playlist manager PLMNG.

2) 各種再生表示制御モジュールからの再生状況の再生表示処理状況(ステータス)の制御、その具体的な例として、本実施形態においてはプレイリストマネージャーPLMNGが各部署の進行状況を把握し、異常が生じた時の対応処理を行う。   2) Reproduction display processing status (status) control of reproduction status from various reproduction display control modules. As a specific example, in this embodiment, the playlist manager PLMNG grasps the progress status of each department, and there is an abnormality. Take action when it occurs.

3) 現行のプレイリストPLLSTにおけるデフォルト状態での再生表示スケジュール管理
タイトルタイムラインTMLEに同期して表示される各種表示オブジェクトが連続した(シームレスな)再生の必要性に限らず、本実施形態においてプレイリストマネージャーPLMNGは、プライマリービデオプレーヤーPRMVPやセカンダリービデオプレーヤーSCDVPなどの再生表示モジュールの監視を行っている。また、タイトルタイムラインTMLEに同期して再生表示される各種表示オブジェクトが連続した(シームレスな)再生表示が不可能になった場合には、前記同期して表示・再生されるオブジェクトとタイトルタイムラインTMLE上での時刻(時間)との間の再生タイミングの調整をプレイリストマネージャーPLMNGが行いユーザーに対して違和感を与えない表示制御を行うことができる。
3) Playback display schedule management in the default state in the current playlist PLLST The various display objects displayed in synchronization with the title timeline TMLE are not limited to the need for continuous (seamless) playback, but play in this embodiment The list manager PLMNG monitors playback display modules such as the primary video player PRMVP and the secondary video player SCDVP. If various display objects that are played back and displayed in synchronization with the title timeline TMLE cannot be played back continuously (seamless), the objects that are displayed and played back in synchronization with the title timeline The playlist manager PLMNG adjusts the reproduction timing between the time (time) on the TMLE and can perform display control that does not give the user a sense of incongruity.

ナビゲーションマネージャーNVMNG内のプレイリストマネージャーPLMNGは、プレイリストPLLST内のオブジェクトマッピングインフォメーションOBMAPI内にあるリソースインフォメーションRESRCIの読み出しと解析を行う。プレイリストマネージャーPLMNGは、読出したリソースインフォメーションRESRCIをファイルキャッシュFLCCHに転送する。タイトルタイムラインTMLEの進行に合わせて、リソースマネージメントテーブルに基づきファイルキャッシュマネージャーFLCMNGがリソースファイルをロードまたは消去処理をするように前記プレイリストマネージャーPLMNGからファイルキャッシュマネージャーFLCMNGに指示する。   The playlist manager PLMNG in the navigation manager NVMNG reads and analyzes the resource information RESRCI in the object mapping information OBMAPI in the playlist PLLST. The playlist manager PLMNG transfers the read resource information RESRCI to the file cache FLCCH. In accordance with the progress of the title timeline TMLE, the file cache manager FLCMNG instructs the file cache manager FLCMNG to load or delete the resource file based on the resource management table.

ナビゲーションマネージャーNVMNGにおけるプレイリストマネージャーPLMNGは、アドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGENに対し、再生表示制御に関係する各種のコマンド(API)を発生させ、プレイリストマネージャーPLMNGが前記プログラミングエンジンPRGENの制御を行う。前記プレイリストマネージャーPLMNGから発生する各種コマンド(API)の例として、セカンダリービデオプレーヤーSCDVP(図38)に対して制御を行うコマンドや、オーディオミキシングエンジンADMXEN(図42)に対する制御コマンド及びイフェクトオーディオEFTADの処理に関するAPIコマンドなどを発行する。   The playlist manager PLMNG in the navigation manager NVMNG generates various commands (APIs) related to playback display control to the programming engine PRGEN in the advanced application manager ADAMNG, and the playlist manager PLMNG controls the programming engine PRGEN. Do. Examples of various commands (API) generated from the playlist manager PLMNG include commands for controlling the secondary video player SCDVP (FIG. 38), control commands for the audio mixing engine ADMXEN (FIG. 42), and the effect audio EFTAD. Issue API commands related to processing.

また、プレイリストマネージャーPLMNGは、アドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGENに対するプレイヤーシステムAPIコマンドも発行する。これらのプレイヤーシステムAPIコマンドは、システムインフォメーションにアクセスするコマンドなどが挙げられる。   The playlist manager PLMNG also issues a player system API command for the programming engine PRGEN in the advanced application manager ADAMNG. These player system API commands include commands for accessing system information.

本実施形態において、図32に示すアドバンストアプリケーションマネージャーADAMNGの機能について説明を行う。前記アドバンストアプリケーションマネージャーADAMNGは、アドバンストコンテンツADVCTの全ての再生表示処理に関する制御を行う。また更に前記アドバンストアプリケーションマネージャーADAMNGは、アドバンストアプリケーションADAPLのマークアップMRKUPやスクリプトSCRPTの情報に関連して、連携作業として図34に示すアドバンストアプリケーションプレゼンテーションエンジンAAPENの制御も行う。図32に示すようにアドバンストアプリケーションマネージャーADAMNGはディクレラティブエンジンDECENとプログラミングエンジンPRGENから構成される。   In the present embodiment, functions of the advanced application manager ADAMNG shown in FIG. 32 will be described. The advanced application manager ADAMNG performs control related to all reproduction display processing of the advanced content ADVCT. Further, the advanced application manager ADAMNG also controls the advanced application presentation engine AAPEN shown in FIG. 34 as a cooperative operation in association with information on the markup MRKUP and script SCRPT of the advanced application ADAPL. As shown in FIG. 32, the advanced application manager ADAMNG includes a declarative engine DECEN and a programming engine PRGEN.

前記ディクレラティブエンジンDECENは、アドバンストアプリケーションADAPLにおけるマークアップMRKUPに対応して、アドバンストコンテンツADVCTの宣言処理の管理及び制御を行う。前記ディクレラティブエンジンDECENは、以下の項目に対し対応する。   The declarative engine DECEN manages and controls the declaration process of the advanced content ADVCT corresponding to the markup MRKUP in the advanced application ADAPL. The declarative engine DECEN corresponds to the following items.

1、アドバンストアプリケーションプレゼンテーションエンジンAAPEN(図34)の制御
・グラフィックオブジェクト(アドバンストアプリケーションADAPL)とアドバンストテキスト(アドバンストサブタイトルADSBT)のレイアウト処理
・グラフィックオブジェクト(アドバンストアプリケーションADAPL)とアドバンストテキスト(アドバンストサブタイトルADSBT)の表示スタイル制御
・グラフィックプレイン(アドバンストアプリケーションADAPLに関係した表示)の表示予定に合わせた表示タイミング制御とイフェクトオーディオEFTADの再生時のタイミング制御
2、メインビデオMANVDの制御処理
・プライマリーオーディオビデオPRMAVにおけるメインビデオMANVDの属性制御
図43に示すようにメインビデオプレインMNVDPL内でのメインビデオMANVDの画面サイズは、アドバンストアプリケーションADAPL内のAPIコマンドにより設定される。この場合、ディクレラティブエンジンDECENがアドバンストアプリケーションADAPL内に記述されたメインビデオMANVDの画面サイズと画面配置場所情報に対応して前記メインビデオMANVDの表示制御を行う。
1. Control of advanced application presentation engine AAPEN (Fig. 34)-Layout processing of graphic object (advanced application ADAPL) and advanced text (advanced subtitle ADSBT)-Display of graphic object (advanced application ADAPL) and advanced text (advanced subtitle ADSBT) Style control ・ Graphic plane (display related to advanced application ADAPL) display timing control according to the display schedule and effect audio EFTAD playback timing control 2, main video MANVD control processing ・ Main video MANVD in primary audio video PRMAV Attribute control of the main video MANVD in the main video plane MNVDPL as shown in FIG. Size is set by an API command in the advanced application ADAPL. In this case, the declarative engine DECEN performs display control of the main video MANVD corresponding to the screen size and screen layout location information of the main video MANVD described in the advanced application ADAPL.

3、サブビデオSUBVDの制御
・プライマリーオーディオビデオPRMAV内またはセカンダリーオーディオビデオSCDAV内のサブビデオSUBVDの属性制御
図43に示すようにサブビデオプレインSBVDPL内でのサブビデオSUBVDの画面サイズは、アドバンストアプリケーションADAPL内のAPIコマンドにより設定される。この場合、ディクレラティブエンジンDECENがアドバンストアプリケーションADAPL内に記述されたサブビデオSUBVDの画面サイズと画面配置場所情報に対応して前記サブビデオSUBVDの表示制御を行う。
3. Control of sub video SUBVD ・ Attribute control of sub video SUBVD in primary audio video PRMAV or secondary audio video SCDAV As shown in FIG. 43, the screen size of sub video SUBVD in the sub video plane SBVDPL is the advanced application ADAPL. It is set by API command. In this case, the declarative engine DECEN performs display control of the sub video SUBVD in accordance with the screen size and screen layout location information of the sub video SUBVD described in the advanced application ADAPL.

4、スケジュール管理されたスクリプトコール
・アドバンストアプリケーションADAPL内で記述されたタイミングエレメントの実行に対応してスクリプトコールのタイミングを制御する。
4. Schedule-managed script call Controls the timing of the script call in response to the execution of the timing element described in the advanced application ADAPL.

本実施形態においてプログラミングエンジンPRGENは、APIセットコールや、アドバンストコンテンツADVCTのある種の制御などの各種イベントに対応した処理を管理する。また前記プログラミングエンジンPRGENにより、標準的にはリモコン操作処理などのユーザーインターフェースイベントが取り扱われる。前記ユーザーインターフェースイベントUIEVTなどにより、ディクレラティブエンジンDECEN内で定義されたアドバンストアプリケーションADAPLの処理変更や、アドバンストコンテンツADVCTの処理変更などをすることができる。   In this embodiment, the programming engine PRGEN manages processes corresponding to various events such as API set calls and certain control of the advanced content ADVCT. The programming engine PRGEN normally handles user interface events such as remote control operation processing. With the user interface event UIEVT or the like, it is possible to change processing of the advanced application ADAPL defined in the declarative engine DECEN, change processing of the advanced content ADVCT, or the like.

ファイルキャッシュマネージャーFLCMNGは、以下の事柄に対応して処理する。   The file cache manager FLCMNG handles the following matters.

1、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化されているアドバンストアプリケーションADAPLに関するパックやアドバンストとサブタイトルADSBTに関するパックを抜き出し、ソースファイルとしてまとめてファイルキャッシュFLCCH内にリソースファイルとして保存する。前記、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化されたアドバンストアプリケーションADAPLに対応したパックやアドバンストサブタイトルADSBTに対応したパックは図39に示すデマルチプレクサDEMUXにより、抽出される。   1. The pack related to the advanced application ADAPL and the pack related to the advanced and subtitle ADSBT multiplexed in the primary enhanced video object set P-EVOBS are extracted and stored as source files and stored as resource files in the file cache FLCCH. The pack corresponding to the advanced application ADAPL and the pack corresponding to the advanced subtitle ADSBT multiplexed in the primary enhanced video object set P-EVOBS are extracted by the demultiplexer DEMUX shown in FIG.

2、情報記憶媒体DISC、ネットワークサーバーNTSRVまたはパーシステントストレージPRSTR内に記録されている各種ファイルを、ファイルキャッシュFLCCH内にリソースファイルとして保存する。   2. Various files recorded in the information storage medium DISC, the network server NTSRV, or the persistent storage PRSTR are stored as resource files in the file cache FLCCH.

3、プレイリストマネージャーPLMNGやアドバンストアプリケーションマネージャーADAMNGのリクエストに応じ過去に前記各種データーソースからファイルキャッシュFLCCHに転送したソースファイルの再生を行う。   3. In response to a request from the playlist manager PLMNG or the advanced application manager ADAMNG, the source file previously transferred from the various data sources to the file cache FLCCH is reproduced.

4、ファイルキャッシュFLCCH内におけるファイルシステム管理処理を行う。   4. Perform file system management processing in the file cache FLCCH.

前述したように、プライマリーエンハンストビデオオブジェクトセットP-EVOBS内に多重化され、プライマリービデオプレーヤーPRMVP内のデマルチプレクサDEMUXで抜き出されたアドバンストアプリケーションADAPLに関係したパックの処理を前記ファイルキャッシュマネージャーFRCMNGで行うが、この時にプライマリーエンハンストビデオオブジェクトセットP-EVOBS内に含まれているアドバンストストリームパック内のプレゼンテーションストリームヘッダは外され、アドバンストストリームデーターとしてファイルキャッシュFLCCH内に記録される。また、プレイリストマネージャーPLMNGやアドバンストアプリケーションマネージャーADAMNGの要請に応じて情報記憶媒体DISC、ネットワークサーバーNTSRVやパーシステントストレージPRSTR内に保存されていたリソースファイルの獲得もファイルキャッシュマネージャーFLCMNGが行う。   As described above, the file cache manager FRCMNG performs processing of packs related to the advanced application ADAPL multiplexed in the primary enhanced video object set P-EVOBS and extracted by the demultiplexer DEMUX in the primary video player PRMVP. However, at this time, the presentation stream header in the advanced stream pack included in the primary enhanced video object set P-EVOBS is removed and recorded as advanced stream data in the file cache FLCCH. The file cache manager FLCMNG also acquires resource files stored in the information storage medium DISC, the network server NTSRV, and the persistent storage PRSTR in response to requests from the playlist manager PLMNG and the advanced application manager ADAMNG.

ユーザーインターフェースエンジンUIENGには、図32に示すようにリモートコントロールコントローラーRMCCTR、フロントパネルコントローラーFRPCTR、ゲームパッドコントローラーGMPCTR、キーボードコントローラーKBDCTR、マウスコントローラーMUSCTRやカーソルマネージャーCRSMNGが含まれる。本実施形態において、フロントパネルコントローラーFRPCTRとリモートコントロールコントローラーRMCCTRのうちいずれか一方はサポートされなければならない。また、本実施形態において、カーソルマネージャーCRSMNGは必須となり、画面上でのユーザー処理としてはパーソナルコンピューターと同様のカーソル利用が前提となる。それ以外の各種コントローラーについては本実施形態ではオプション扱いとする。図32に示したユーザーインターフェースエンジンUIENG内の各種コントローラーは、実際の対応したデバイス(マウスやキーボードなど)が使用可能かどうかを検出するとともにユーザーオペレーションのイベントを監視している。前記のユーザー入力処理が行われると、その情報がユーザーインターフェースイベントUIEVTとアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGENへ情報が伝わる。また、カーソルマネージャーCRSMNGはカーソルの形状と画面上のカーソル位置の制御を行う。また、前記カーソルマネージャーCRSMNGはユーザーインターフェースエンジンUIENG内で検出された動き情報に対応し、図43に示すカーソルプレインCRSRPLのアップデートを行う。   As shown in FIG. 32, the user interface engine UIENG includes a remote control controller RMCCTR, a front panel controller FRPCTR, a game pad controller GMPCTR, a keyboard controller KBDCTR, a mouse controller MUSCTR, and a cursor manager CRSMNG. In this embodiment, one of the front panel controller FRPCTR and the remote control controller RMCCTR must be supported. In the present embodiment, the cursor manager CRSMNG is essential, and the user processing on the screen is premised on the use of a cursor similar to a personal computer. Various other controllers are treated as options in this embodiment. Various controllers in the user interface engine UIENG shown in FIG. 32 detect whether or not an actual corresponding device (such as a mouse or a keyboard) is usable and monitor a user operation event. When the user input process is performed, the information is transmitted to the user interface event UIEVT and the programming engine PRGEN in the advanced application manager ADAMNG. The cursor manager CRSMNG controls the shape of the cursor and the cursor position on the screen. The cursor manager CRSMNG updates the cursor plane CRSRPL shown in FIG. 43 corresponding to the motion information detected in the user interface engine UIENG.

図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLが処理する状態は、サスペンドステートSPDST、ポーズステートPSEST、ファストステートFASTST/スロウステートSLOWST/フォワードステートFWDST/リバースステートRVCST、スタートアップステートSTUPST/アップデートステートUPDTST、ストップステートSTOPST、プレイバックステートPBKST、プレジャンプステートPRJSTとポストジャンプステートPOJSTの8つの状態が存在する。前記アドバンストコンテンツ再生部ADVPLが持つ状態間の状態遷移図を図32に示す。これらの状態遷移図に示された各状態の制御は図16に示すようにアドバンストコンテンツ再生部ADAPL内でのナビゲーションマネージャーNVMNGが制御する。例えば図15に示したシステム例の場合、ユーザーがリモコンにより大画面テレビモニター15へ向かい、リモコンを操作すると無線データ18が情報記録再生装置1内の無線LAN制御部7-1を介しアドバンストコンテンツ再生部ADVPL内に入力される。アドバンストコンテンツ再生部ADVPL内のナビゲーションマネージャーNVMNGに上記ユーザーオペレーションUOPEの情報が入力されると、図32に示すようにリモートコントロールコントローラーRMCCTRが作動し、ユーザーインターフェースイベントUIEVTとしてアドバンストアプリケーションマネージャーADAMNGに入力される。アドバンストアプリケーションマネージャーADAMNG内ではユーザーが指定した画面上の位置に対応して、ユーザー指定内容を解読しパーサーPARSERに通知する。パーサーPARSERはアドバンストアプリケーションマネージャーADAMNGからの通知に対応し、図32に示す各ステートへの遷移を行う。図32に示すように各状態遷移が起きると、パーサーPARSERはプレイリストマネージャーPLMNGで解析されたプレイリストPLLSTの情報に対応し、最適な処理の制御を行う。以下に各状態(ステート)の動作内容について説明を行う。   The states processed by the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15 are the suspend state SPDST, pause state PSEST, fast state FASTST / slow state SLOWST / forward state FWDST / reverse state RVCST, startup state STUPST / There are eight states: update state UPDTST, stop state STOPST, playback state PBKST, pre-jump state PRJST, and post-jump state POJST. FIG. 32 shows a state transition diagram between states of the advanced content playback unit ADVPL. Control of each state shown in these state transition diagrams is controlled by the navigation manager NVMNG in the advanced content playback unit ADAPL as shown in FIG. For example, in the case of the system example shown in FIG. 15, when the user goes to the large-screen TV monitor 15 with the remote controller and operates the remote controller, the wireless data 18 is played back with the advanced content via the wireless LAN control unit 7-1 in the information recording / playback apparatus 1. Input in the part ADVPL. When the information of the user operation UOPE is input to the navigation manager NVMNG in the advanced content playback unit ADVPL, the remote control controller RMCCTR is operated as shown in FIG. 32 and input to the advanced application manager ADAMNG as a user interface event UIEVT. . In the advanced application manager ADAMNG, corresponding to the position on the screen specified by the user, the user specified content is decoded and notified to the parser PARSER. The parser PARSER responds to the notification from the advanced application manager ADAMNG and performs transition to each state shown in FIG. As shown in FIG. 32, when each state transition occurs, the parser PARSER corresponds to the information of the playlist PLLST analyzed by the playlist manager PLMNG, and controls optimal processing. The operation contents of each state (state) will be described below.

A) スタートアップステートSTUPST/アップデートステートUPDTST
アドバンストコンテンツ再生部ADVPLが起動処理またはアップデート処理を開始すると、アドバンストコンテンツ再生部ADVPLはスタートアップステートSTUPST/アップデートステートUPDTSTに遷移される。スタートアップステートSTUPST/アップデートステートUPDTSTが通常に完了すると、アドバンストコンテンツ再生部ADVPLはプレイバックステートPBKSTへ遷移する。
A) Startup state STUPST / Update state UPDTST
When the advanced content playback unit ADVPL starts a startup process or an update process, the advanced content playback unit ADVPL transitions to a startup state STUPST / update state UPDTST. When the startup state STUPST / update state UPDTST is normally completed, the advanced content playback unit ADVPL transits to the playback state PBKST.

B) プレイバックステートPBKST
プレイバックステートPBKSTはアドバンストコンテンツADVCTの通常速度での再生状態を意味する。すなわち、前記アドバンストコンテンツ再生部ADVPLがプレイバックステートPBKSTにある時には、通常の再生速度でタイトルタイムラインTMLEに沿った処理がなされる。
B) Playback state PBKST
The playback state PBKST means a playback state at the normal speed of the advanced content ADVCT. That is, when the advanced content playback unit ADVPL is in the playback state PBKST, processing along the title timeline TMLE is performed at a normal playback speed.

C) ストップステートSTOPST
ストップステートSTOPSTは、アドバンストコンテンツ再生部ADVPLが終了状態になったことを意味し、この時にはタイトルタイムラインTMLEの時間軸に合わせた処理は行われず、またあらゆるアプリケーション処理も停止状態にある。
C) Stop state STOPST
The stop state STOPST means that the advanced content playback unit ADVPL is in an end state. At this time, processing in accordance with the time axis of the title timeline TMLE is not performed, and all application processes are in a stopped state.

D) ポーズステートPSEST
ポーズステートPSESTは一時停止の状態を表す。この時には一時的にタイトルタイムラインTMLEの時間進行(タイトルタイムラインTMLE上のカウントアップ)は一時的に停止された状態にある。
D) Pause state PSEST
The pause state PSEST represents a paused state. At this time, the time progress of the title timeline TMLE (counting up on the title timeline TMLE) is temporarily stopped.

E) ファストFASTST /スロウSLOWST /フォワードFWDST /リバースRVCSTステート
ファストステートFASTSTは動画の高速再生モードを意味し、スロウステートSLOWSTは動画のゆっくりした再生モードを表し、フォワードステートFWDSTは通常の再生方向に沿った再生情報で、同一タイトル内への全方向へのジャンプ(特定の時間経過後の再生位置にアクセスする)の処理も含まれる。リバースステートRVCSTは通常の再生方向に対する逆方向の再生(巻戻し)を意味し特定時間前へのジャンプ再生なども含まれる。アドバンストコンテンツ再生部ADVPLが前記ステート上にある時には、タイトルタイムラインTMLE上の時間進み(カウント変化状況)は、それぞれの再生ステートに合わせてタイトルタイムラインTMLE上の時刻変化(カウントアップ/カウントダウン)の処理が行われる
F) プレジャンプステートPRJST
プレジャンプステートPRJSTは、再生中コンテンツ(タイトル)の終了処理を意味している。本実施形態において、アドバンストアプリケーションADAPLにより画面上に各種制御用ボタンを表示するがユーザーがその中でジャンプをクリックするとアドバンストコンテンツ再生部ADVPLはプレジャンプステートPRJSTへ遷移する。アドバンストアプリケーションADAPLにより表示された“ジャンプボタン”で指定されたジャンプ先は異なるタイトル先にジャンプする場合や、同一タイトル内においてもタイトルタイムラインTMLEで指定された時刻(カウント値)と大きく異なる場合が有る。現在画面上に表示されているアドバンストアプリケーションADVPLが、移動先に対応したタイトルタイムラインTMLE時刻(カウント値)上では使用されない(有効期限が切れている)場合が有る。この場合には現在画面上に表示されているアドバンストアプリケーションADAPLの終了処理が必要となる。従って本実施形態においてはプレジャンプステートPRJST内において、移動先のタイトルタイムラインTMLEの時刻(カウント値)を調べ、有効期間の切れているアドバンストアプリケーションADAPLの終了処理や、新たに(ジャンプ前の画面には無かった)有効期間となるアドバンストアプリケーションADAPLの表示準備処理を行う。その後アドバンストコンテンツ再生部ADVPLは、ポストジャンプステートPOJSTへ遷移される。
E) Fast FASTST / Slow SLOWST / Forward FWDST / Reverse RVCST state Fast state FASTST means fast playback mode of video, slow state SLOWST indicates slow playback mode of video, forward state FWDST follows normal playback direction Also included is processing of jumping in all directions within the same title (accessing the playback position after a specific time has elapsed) with the playback information. The reverse state RVCST means playback (rewinding) in the reverse direction with respect to the normal playback direction, and includes jump playback to a specific time. When the advanced content playback unit ADVPL is in the state, the time advance (count change state) on the title timeline TMLE is the time change (count up / count down) on the title timeline TMLE in accordance with each playback state. F) Pre-jump state PRJST
The pre-jump state PRJST means end processing of the content being played back (title). In the present embodiment, various control buttons are displayed on the screen by the advanced application ADAPL. When the user clicks a jump in the screen, the advanced content playback unit ADVPL transitions to the pre-jump state PRJST. The jump destination specified by the “jump button” displayed by the advanced application ADAPL may jump to a different title destination or may be significantly different from the time (count value) specified in the title timeline TMLE even within the same title. Yes. The advanced application ADVPL currently displayed on the screen may not be used (expired) on the title timeline TMLE time (count value) corresponding to the movement destination. In this case, the advanced application ADAPL currently displayed on the screen needs to be terminated. Therefore, in this embodiment, in the pre-jump state PRJST, the time (count value) of the destination title timeline TMLE is checked, and the advanced application ADAPL that has expired is terminated or a new (screen before jump) The display preparation processing for the advanced application ADAPL, which is valid), is performed. Thereafter, the advanced content playback unit ADVPL transitions to the post-jump state POJST.

G) ポストジャンプステートPOJST
ポストジャンプステートPOJSTは次のコンテンツ(タイトル)のローディング処理モードを表す。図21に示すように各タイトル毎にそれぞれ独自のタイトルタイムラインTMLEが設定されている。プレジャンプステートPRJSTにおいて、例えばタイトル#2の再生途中にプレジャンプステートPRJSTに遷移するとタイトル#2のタイトルタイムラインTMLEの時間進行が停止され、例えばポストジャンプステートにおいてPOJST次のタイトル#3の再生準備がなされる場合にはタイトルタイムラインTMLEが#2のものからタイトル#3に対応したタイトルタイムラインTMLEに移動する。ポストジャンプステートPOJSTにおいては、例えばデータキャッシュDTCCHのメモリ空間の設定や前記設定されたデータキャッシュDTCCH内へのアドバンストアプリケーションADAPLのローディング処理などの準備が行われる。これら一連の準備が終了するとアドバンストコンテンツ再生部ADVPLはプレイバックステートPBKSTへ遷移する。
G) Post Jump State POJST
The post-jump state POJST represents a loading process mode for the next content (title). As shown in FIG. 21, a unique title timeline TMLE is set for each title. In the pre-jump state PRJST, for example, if the transition is made to the pre-jump state PRJST during the playback of the title # 2, the time progress of the title timeline TMLE of the title # 2 is stopped, and for example the POJST next title # 3 is prepared for playback in the post-jump state Is performed, the title timeline TMLE moves from the # 2 one to the title timeline TMLE corresponding to the title # 3. In the post-jump state POJST, preparations such as setting of the memory space of the data cache DTCCH and loading processing of the advanced application ADAPL into the set data cache DTCCH are performed, for example. When these series of preparations are completed, the advanced content playback unit ADVPL transitions to the playback state PBKST.

H) サスペンドステートSPDST
サスペンドステートSPDSTは、アドバンストコンテンツ再生部ADVPLが待機状態にあることを意味する。この状態においてはタイトルタイムラインTMLEの時間進行は一時停止されると共に、各種再生表示オブジェクトも表示待機の状態にある。この状態の例として、例えば図15において、大画面テレビモニター15上にはスタンダードコンテンツSTDCTのみが表示され、アドバンストコンテンツADVCTが非表示の状態などの時、この状態になる。
H) Suspend state SPDST
The suspend state SPDST means that the advanced content playback unit ADVPL is in a standby state. In this state, the time progress of the title timeline TMLE is temporarily stopped, and various playback display objects are also in a display standby state. As an example of this state, for example, in FIG. 15, only the standard content STDCT is displayed on the large-screen TV monitor 15, and this state is entered when the advanced content ADVCT is not displayed.

ユーザーが情報記憶媒体DISCを情報記録再生装置1内の情報記録再生部2内に挿入するとアドバンストコンテンツ再生部ADVPLはスタートアップステートSTUPSTになり、それと共にイニシャル状態としてのアップデートステートUPDTSTに入る。その後通常の場合にはすぐにプレイバックステートPBKSTに遷移し、アドバンストコンテンツADVCTの表示モードに入る。この時例えばユーザーがスタンダードコンテンツSTDCTに切替えた場合、アドバンストコンテンツ再生部ADVPLはサスペンドステートSPDSTに遷移される。また再びユーザーが、アドバンストコンテンツADVCTの再生を開始するとプレイバックステートPBKSTに遷移する。次にユーザーが別の画面(タイトル)への画面遷移を支持するとプレジャンプステートPRJSTを経てポストジャンプステートPOJSTに遷移した後、ユーザーが指定したタイトルのプレイバックステートPBKSTに遷移される。ここで、ユーザーが再生時にポーズボタンを押すとポーズステートPSESTに遷移され、その後高速送りをユーザーが指定するとファストステートへ遷移される。その後ユーザーが情報記録再生装置1を終了させるとストップステートSTOPSTに遷移する。このような形でユーザーオペレーションUOPEに対応してアドバンストコンテンツ再生部ADVPLの状態遷移が起こる。   When the user inserts the information storage medium DISC into the information recording / reproducing unit 2 in the information recording / reproducing apparatus 1, the advanced content reproducing unit ADVPL enters the start-up state STUPST and enters the update state UPDTST as the initial state along with it. Thereafter, in the normal case, the state immediately transitions to the playback state PBKST and enters the display mode of the advanced content ADVCT. At this time, for example, when the user switches to the standard content STDCT, the advanced content playback unit ADVPL transitions to the suspend state SPDST. When the user starts playback of the advanced content ADVCT again, the state transits to the playback state PBKST. Next, when the user supports the screen transition to another screen (title), after the pre-jump state PRJST and the post-jump state POJST, the user transitions to the playback state PBKST of the title specified by the user. Here, when the user presses the pause button during playback, transition is made to the pause state PSEST, and when the user designates high-speed feed, transition is made to the fast state. Thereafter, when the user ends the information recording / reproducing apparatus 1, the state transits to the stop state STOPST. In this way, state transition of the advanced content playback unit ADVPL occurs in response to the user operation UOPE.

図16に示すアドバンストコンテンツ再生部ADVPL内のプレゼンテーションエンジンPRSENの内部構造を図34に示す。   FIG. 34 shows the internal structure of the presentation engine PRSEN in the advanced content playback unit ADVPL shown in FIG.

まず初めにプレゼンテーションエンジンPRSENの位置づけを説明する。各種記録媒体に記録されたアドバンストコンテンツADVCTは、図16に示すようにデータアクセスマネージャーDAMNGを通過した後、プレゼンテーションエンジンPRSENを経てAVレンダラーAVRNDへデータ転送される。この時の制御をナビゲーションマネージャーNVMNGが行う。すなわち前記プレゼンテーションエンジンPRSENは、ナビゲーションマネージャーNVMNGから発生される制御コマンドに対応し各種表示オブジェクトに対応した再生表示データをデコード処理し、その結果をAVレンダラーAVRNDへ転送する。図34に示すようにプレゼンテーションエンジンPRSENは、6種類の主な処理機能モジュールと1種類のグラフィックバッファーメモリで構成される。前記6種類の主な機能モジュールは、アドバンストアプリケーションプレゼンテーションエンジンAAPEN、フォントレンダリングシステムFRDSTM、アドバンストサブタイトルプレーヤーASBPL、セカンダリービデオプレーヤーSCDVP、プライマリービデオプレーヤーPRMVPとデコーダーエンジンDCDENから構成される。また、前記グラフィックバッファーメモリはピクセルバッファーPIXBUFが対応する。例えばテキストイメージや、PNGイメージなどのようなピクセルイメージを保存するグラフィックメモリとして前記ピクセルバッファーPIXBUFが共有利用される。   First, the positioning of the presentation engine PRSEN will be explained. The advanced content ADVCT recorded on various recording media passes through the data access manager DAMNG as shown in FIG. 16, and then is transferred to the AV renderer AVRND via the presentation engine PRSEN. The navigation manager NVMNG performs this control. That is, the presentation engine PRSEN decodes reproduction display data corresponding to various display objects corresponding to the control command generated from the navigation manager NVMNG, and transfers the result to the AV renderer AVRND. As shown in FIG. 34, the presentation engine PRSEN includes six types of main processing function modules and one type of graphic buffer memory. The six main functional modules are composed of an advanced application presentation engine AAPEN, a font rendering system FRDSTM, an advanced subtitle player ASBPL, a secondary video player SCDVP, a primary video player PRMVP, and a decoder engine DCDEN. The graphic buffer memory corresponds to a pixel buffer PIXBUF. For example, the pixel buffer PIXBUF is commonly used as a graphic memory for storing a pixel image such as a text image or a PNG image.

図34に示すように前記ピクセルバッファーPIXBUFはアドバンストアプリケーションプレゼンテーションエンジンAAPEN、フォントレンダリングシステムFRDSTM及びアドバンストサブタイトルプレーヤーASBPLで共用される。すなわち、後述するようにアドバンストアプリケーションプレゼンテーションエンジンAAPENでは、アドバンストアプリケーションADAPLに関するイメージ画像(例えば図20に示すヘルプアイコン33からFFボタン38に至る一連の画面イメージ)を作成するが、その時に前記イメージ画像の一時保存場所として前記ピクセルバッファーPIXBUFを利用する。同様、フォントレンダリングシステムFRDSTMでフォントに合わせたテキスト情報を作成するが、その特定指定されたフォント形状のテキスト情報であるイメージ画像も一時的に前記ピクセルバッファーPIXBUFを一時保存場所として共有利用される。またアドバンストサブタイトルプレーヤーASBPLで、例えばアドバンストサブタイトルADSBTの字幕情報を作った場合、そのイメージ画像も同様に前記ピクセルバッファーPIXBUFに一時格納できる。   As shown in FIG. 34, the pixel buffer PIXBUF is shared by the advanced application presentation engine AAPEN, the font rendering system FRDSTM, and the advanced subtitle player ASBPL. That is, as will be described later, the advanced application presentation engine AAPEN creates an image (for example, a series of screen images from the help icon 33 to the FF button 38 shown in FIG. 20) related to the advanced application ADAPL. The pixel buffer PIXBUF is used as a temporary storage location. Similarly, text information matched to the font is created by the font rendering system FRDSTM, and an image that is text information of the specified font shape is also temporarily shared and used as the temporary storage location of the pixel buffer PIXBUF. Further, when the subtitle information of the advanced subtitle ADSBT is created by the advanced subtitle player ASBPL, for example, the image can also be temporarily stored in the pixel buffer PIXBUF.

図12に示すように本実施形態において、再生表示オブジェクトは4種類存在し、それらの再生表示オブジェクトのアドバンストコンテンツ再生部ADVPL内でのデータの流れを図29に記述されている。図34と前述した図29の関係を以下に説明する。   As shown in FIG. 12, in this embodiment, there are four types of playback display objects, and the data flow of these playback display objects in the advanced content playback unit ADVPL is described in FIG. The relationship between FIG. 34 and FIG. 29 described above will be described below.

まず初めにプライマリービデオセットPRMVSについて説明する。図29に示すように、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSは直接プライマリービデオプレーヤーPRMVPに転送され、各種デコーダーでデコード処理される。これに対応して図34を用いて説明すると、情報記憶媒体DISCに記録されたプライマリービデオセットPRMVSはデータアクセスマネージャーDAMNGを経由し、プライマリービデオプレーヤーPRMBVPを経た後デコーダーエンジンDCDENでデコードされAVレンダラーAVRNDで画像合成される。   First, the primary video set PRMVS will be described. As shown in FIG. 29, the primary video set PRMVS recorded on the information storage medium DISC is directly transferred to the primary video player PRMVP and decoded by various decoders. 34 corresponding to this, the primary video set PRMVS recorded on the information storage medium DISC passes through the data access manager DAMNG, passes through the primary video player PRMBVP, and then is decoded by the decoder engine DCDEN and AV renderer AVRND. The image is composited.

次にセカンダリービデオセットSCDVSについて説明する。図29に示すように、情報記憶媒体DISCまたはパーシステントストレージPRSTRに記録されたセカンダリービデオセットSCDVSは、セカンダリービデオプレーヤーSCDVPを経由し各種デコーダーでデコード処理される。これに対応して図34を用いて説明すると、セカンダリービデオセットSCDVSはデータアクセスマネージャーDAMNGを経由し、セカンダリービデオプレーヤーSCDVPで処理された後デコーダーエンジンDCDENでデコード処理され、AVレンダラーAVRNDで画像合成される。また、図29に示すようにネットワークサーバーNTSRV内に記録されているセカンダリービデオセットSCDVSはストリーミングバッファーSTRBUFを経由し、セカンダリービデオプレーヤーSCDVPへ到達するようになっている。これに対応して図34を用いて説明すると、ネットワークサーバーNTSRVに記録されたセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のストリーミングバッファーSTRBUF(図示していないが)で一時保存された後、データキャッシュDTCCH内のストリーミングバッファーSTRBUFからデータがセカンダリービデオプレーヤーSCDVPへ送られデコーダーエンジンDCDENでデコードされた後AVレンダラーAVRNDで画像構成される。   Next, the secondary video set SCDVS will be described. As shown in FIG. 29, the secondary video set SCDVS recorded in the information storage medium DISC or persistent storage PRSTR is decoded by various decoders via the secondary video player SCDVP. 34, the secondary video set SCDVS is processed by the secondary video player SCDVP via the data access manager DAMNG, then decoded by the decoder engine DCDEN, and synthesized by the AV renderer AVRND. The In addition, as shown in FIG. 29, the secondary video set SCDVS recorded in the network server NTSRV reaches the secondary video player SCDVP via the streaming buffer STRBUF. 34, the secondary video set SCDVS recorded in the network server NTSRV is temporarily stored in the streaming buffer STRBUF (not shown) in the data cache DTCCH, and then the data cache. Data is sent from the streaming buffer STRBUF in the DTCCH to the secondary video player SCDVP, decoded by the decoder engine DCDEN, and then composed of an AV renderer AVRND.

次にアドバンストアプリケーションADAPLについて説明する。図29に示すように、アドバンストアプリケーションADAPLは一時的にファイルキャッシュFLCCHに一時保存された後、アドバンストエレメントプレゼンテーションエンジンAEPENへ転送される。これに対応して図34を用いて説明すると、アドバンストアプリケーションADAPLは、一時保存されたファイルキャッシュFLCCHからアドバンストアプリケーションプレゼンテーションエンジンAAPEN転送され、前記アドバンストアプリケーションプレゼンテーションエンジンAAPEN内でイメージ画像として構成された後、AVレンダラーAVRNDで画像合成される。   Next, the advanced application ADAPL will be described. As shown in FIG. 29, the advanced application ADAPL is temporarily stored in the file cache FLCCH and then transferred to the advanced element presentation engine AEPEN. Correspondingly, the advanced application ADAPL is transferred from the temporarily stored file cache FLCCH to the advanced application presentation engine AAPEN, and is configured as an image in the advanced application presentation engine AAPEN. The image is synthesized by AV renderer AVRND.

最後にアドバンストサブタイトルADSBTについて説明する。図29に示すように、アドバンストサブタイトルADSBTは必ずファイルキャッシュFLCCH内に一時保存された後、アドバンストサブタイトルプレーヤーASBPLへ転送される。これに対応して図34を用いて説明すると、ファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTは、アドバンストサブタイトルプレーヤーASBPLでテキスト内容を表現したイメージ画像に変換され、AVレンダラーAVRND上で画像合成される。特に指定されたフォント形式で画面に表示したい場合には図13に示すようにアドバンストエレメントディレクトリADVEL内に保存されたフォントファイルFONTを利用し、そのデータを使いファイルキャッシュFLCCH内に保存されたアドバンストサブタイトルADSBTがフォントレンダリングシステムFRDSTM内で指定されたフォント形式での文字画像(イメージ画像)に変換された後、AVレンダラーAVRNDで画像合成される。本実施形態においては、フォントレンダリングシステムFRDSTMで作成した独自のフォント形式の文字画像(イメージ画像)がピクセルバッファーPIXBUFに一時保存され、そのイメージ画像はアドバンストサブタイトルプレーヤーASBPLを経由してAVレンダラーAVRNDへ転送される。   Finally, the advanced subtitle ADSBT will be described. As shown in FIG. 29, the advanced subtitle ADSBT is always temporarily stored in the file cache FLCCH and then transferred to the advanced subtitle player ASBPL. Correspondingly, with reference to FIG. 34, the advanced subtitle ADSBT stored in the file cache FLCCH is converted into an image image representing the text content by the advanced subtitle player ASBPL, and the image is synthesized on the AV renderer AVRND. The In particular, if you want to display on the screen in the specified font format, use the font file FONT saved in the advanced element directory ADVEL as shown in FIG. 13, and use that data for the advanced subtitle saved in the file cache FLCCH. The ADSBT is converted to a character image (image image) in the font format specified in the font rendering system FRDSTM, and then the image is synthesized by the AV renderer AVRND. In this embodiment, the original font format character image (image image) created by the font rendering system FRDSTM is temporarily stored in the pixel buffer PIXBUF, and the image image is transferred to the AV renderer AVRND via the advanced subtitle player ASBPL. Is done.

図16に示すように本実施形態において、アドバンストコンテンツ再生部ADVPL内にはプレゼンテーションエンジンPRSENが存在する。図34に示すプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENの内部構造を図35に示す。   As shown in FIG. 16, in this embodiment, a presentation engine PRSEN exists in the advanced content playback unit ADVPL. FIG. 35 shows the internal structure of the advanced application presentation engine AAPEN in the presentation engine PRSEN shown in FIG.

本実施形態においてアドバンストアプリケーションプレゼンテーションエンジンAAPENは、以下に述べる2種類の再生表示ストリーム(再生表示オブジェクト)をAVレンダラーAVRNDへ転送する。AVレンダラーAVRNDへ転送する再生表示ストリームの1つは、図43に示すグラフィックプレインGRPHPL上で表示されるフレームイメージである。また、次の再生表示ストリームはイフェクトオーディオストリームEFTADが対応する。図35に示すように、アドバンストアプリケーションプレゼンテーションエンジンAAPENは、サウンドデコーダーSNDDEC、グラフィックスデコーダーGHCDECとレイアウトマネージャーLOMNGから構成される。   In this embodiment, the advanced application presentation engine AAPEN transfers the following two types of playback display streams (playback display objects) to the AV renderer AVRND. One of the playback display streams to be transferred to the AV renderer AVRND is a frame image displayed on the graphic plane GRPHPL shown in FIG. The next playback display stream corresponds to the effect audio stream EFTAD. As shown in FIG. 35, the advanced application presentation engine AAPEN includes a sound decoder SNDDEC, a graphics decoder GHCDEC, and a layout manager LOMNG.

アドバンストアプリケーションADAPL内におけるイフェクトオーディオEFTAD(図12参照)情報は、事前に一時保管されたファイルキャッシュFLCCH内からサウンドデコーダーSNDDECに転送され、前記サウンドデコーダーSNDDEC内でデコードされた後AVレンダラーAVRND内でオーディオミキシングされる。また、アドバンストアプリケーションADAPL内のイメージ画像を構成する個々の静止画IMAGE(図12参照)は、一時保管されたファイルキャッシュFLCCHからグラフィックデコーダーGHCDEC内でビットマップ上のイメージ画像(の構成要素)に変換される。さらにレイアウトマネージャーLOMNGでサイズ変換(スケーラーの処理)を行い、静止画IMAGE毎にレイアウト上の合成をされてイメージ画像が形成された後、AVレンダラーAVRNDで画像構成される。   The effect audio EFTAD (see FIG. 12) information in the advanced application ADAPL is transferred from the file cache FLCCH temporarily stored in advance to the sound decoder SNDDEC, decoded in the sound decoder SNDDEC, and then audio in the AV renderer AVRND. It is mixed. In addition, the individual still images IMAGE (see FIG. 12) constituting the image images in the advanced application ADAPL are converted from the temporarily stored file cache FLCCH into image images (components) on the bitmap in the graphic decoder GHCDEC. Is done. Further, size conversion (scalar processing) is performed by the layout manager LOMNG, and an image is formed by combining the layout for each still image IMAGE, and then the image is composed by the AV renderer AVRND.

図20に示した例を用いて上記の処理の説明を行う。図20に示すように、アドバンストアプリケーションADAPLに対応してヘルプアイコン33、ストップボタン34、プレイボタン35、FRボタン36、ポーズボタン37およびFFボタン38に対応した個々の静止画像情報がファイルキャッシュFLCCH内に保存されている。グラフィックレコーダーGHCDEC内では前記個々の静止画像をデコーダー処理によりビットマップ上のイメージ画像(の構成要素)に変換する。次にレイアウトマネージャーLOMNGにより前記ヘルプアイコン33の位置やストップボタン34の位置などが設定され、ヘルプアイコン33からFFボタン38までの画像の並びとして構成されるイメージ画像がレイアウトマネージャーLOMNG内で作成される。このレイアウトマネージャーLOMNGで作成されたヘルプアイコン33からFFボタン38までの一連のイメージ画像がAVレンダラーAVRNDで他の画像と合成される。   The above processing will be described using the example shown in FIG. As shown in FIG. 20, individual still image information corresponding to the help icon 33, stop button 34, play button 35, FR button 36, pause button 37 and FF button 38 corresponding to the advanced application ADAPL is stored in the file cache FLCCH. Is saved. In the graphic recorder GHCDEC, the individual still images are converted into image images (components thereof) on a bitmap by a decoder process. Next, the layout manager LOMNG sets the position of the help icon 33, the position of the stop button 34, etc., and an image image configured as an array of images from the help icon 33 to the FF button 38 is created in the layout manager LOMNG. . A series of image images from the help icon 33 to the FF button 38 created by the layout manager LOMNG are combined with other images by the AV renderer AVRND.

サウンドデコーダーSNDDECはファイルキャッシュFLCCHからWAVファイルを読取り、連続的にAVレンダラーAVRNDへリニアPCMの形で連続的に出力を行う。図32に示すように、ナビゲーションマネージャーNVMNG内にプログラミングエンジンPRGENが存在する。この前記プログラムエンジンPRGENからプレゼンテーションエンジンPRSENに対してAPIコマンドが発行されるが、そのAPIコマンドをトリガーとして前記データ処理が行われる。   The sound decoder SNDDEC reads WAV files from the file cache FLCCH and outputs them continuously to the AV renderer AVRND in the form of linear PCM. As shown in FIG. 32, the programming engine PRGEN exists in the navigation manager NVMNG. An API command is issued from the program engine PRGEN to the presentation engine PRSEN, and the data processing is performed using the API command as a trigger.

グラフィックデコーダーGHCDECは、ファイルキャッシュFLCCH内に保存されたグラフィックデータのデコード処理を行う。本実施形態において取り扱うイメージ画像(の構成要素)は、MNGイメージ、PNGイメージ、またはMPEGイメージなどを取り扱う。これらイメージ画像に関する情報が記録されたイメージファイルは前記グラフィックデコーダーGHCDEC内でデコードされると共に前記デコードされたイメージ画像(の構成要素)は、図34に示すピクセルバッファーPIXBUF内に一時保存される。その後一時保存されたイメージ画像(の構成要素)は、レイアウトマネージャーLOMNGからリクエストを受けて前記レイアウトマネージャーLOMNGへ転送される。   The graphic decoder GHCDEC decodes graphic data stored in the file cache FLCCH. Image images (components) handled in the present embodiment handle MNG images, PNG images, MPEG images, and the like. The image file in which the information about the image is recorded is decoded in the graphic decoder GHCDEC, and the decoded image (component) is temporarily stored in the pixel buffer PIXBUF shown in FIG. Thereafter, the temporarily stored image (component) is received from the layout manager LOMNG and transferred to the layout manager LOMNG.

本実施形態において、前記アドバンストアプリケーションプレゼンテーションエンジンAAPENで扱うイメージ画像は図43に示すグラフィックプレインGRPHPL上の表示画面を構成する。これらグラフィックプレインGRPHPL上のイメージ画像を作成し、AVレンダラーAVRNDへ合成のため転送する処理を行うのがレイアウトマネージャーLOMNGである。図43に示すグラフィックプレインGRPHPL内の表示画面(イメージ画像の構成要素)毎にそれぞれ対応したレイアウト情報が存在しており、グラフィックプレインGRPHPL内の画面内容が変化する毎に対応した異なるレイアウトインフォメーションが存在し、そのレイアウトインフォメーションに基づきレイアウトマネージャーLOMNG内でレイアウト設定される。このレイアウト情報は図32に示すように、ナビゲーションマネージャーNVMNG内のアドバンストアプリケーションマネージャーADAMNGに含まれるディクレラティブエンジンDECENから発行される前記レイアウトインフォメーションがレイアウトマネージャーLOMNGに転送される。前記レイアウトマネージャーLOMNG内には、グラフィックスサーフェスGRPHSFと呼ばれるメモリーを内蔵しており、グラフィックプレインGRPHPL上のイメージ画像を作成する時に利用される。グラフィックプレインGRPHPL内に複数の画像(イメージ画像の構成要素)を配置する場合には、前記レイアウトマネージャーLOMNGが個々にグラフィックデコーダーGHCDECを起動させ、それぞれのイメージ画像の構成要素毎のデコードをさせた後フレームイメージ(イメージ画像)としてそれぞれのイメージ画像の構成要素毎の配置設定を行う。図34に示すようにプレゼンテーションエンジンPRSEN内にフォントレンダリングシステムFRDSTMが存在し、指定されたフォント形式による文字情報をイメージ画像に変換するということを説明したが、この特定のフォントによる表示を行う場合には、前記レイアウトマネージャーLOMNGから前記フォントレンダリングシステムFRDSTMを動かし、テキスト情報をフレームイメージ(イメージ画像)に変換しグラフィックプレインGRPHPL上に配置することもできる。本実施形態では図43に示すようにグラフィックプレインGRPHPL上のイメージ画像全体または個々のイメージ画像の構成要素を半透明とし、その下側に存在するサブピクチャープレインSBPCPLやサブビデオプレインSBVDPLまたはメインビデオプレインMNVDPLの映像が透けて見えるように設定することができる。上記グラフィックプレインGRPHPL内の各イメージ画像の構成要素(またはイメージ画像全体)の下側の面に対する透明度をアルファ値で定義される。もしこのようにアルファ値が設定された場合には、そのアルファ値に応じて半透明な形としてグラフィックプレインGRPHPL上の指定された場所に配置するように前記レイアウトマネージャーLOMNGが設定する。   In this embodiment, the image image handled by the advanced application presentation engine AAPEN constitutes a display screen on the graphic plane GRPHPL shown in FIG. The layout manager LOMNG performs processing for creating an image on the graphic plane GRPHPL and transferring it to the AV renderer AVRND for composition. 43. There is layout information corresponding to each display screen (component of image image) in the graphic plane GRPHPL shown in FIG. 43, and different layout information corresponding to each change in the screen contents in the graphic plane GRPHPL. The layout is set in the layout manager LOMNG based on the layout information. As shown in FIG. 32, the layout information issued from the declarative engine DECEN included in the advanced application manager ADAMNG in the navigation manager NVMNG is transferred to the layout manager LOMNG. The layout manager LOMNG includes a memory called a graphics surface GRPHSF, which is used when creating an image on the graphic plane GRPHPL. When a plurality of images (components of image images) are arranged in the graphic plane GRPHPL, the layout manager LOMNG individually activates the graphic decoder GHCDEC and decodes each component of the image image. An arrangement setting for each component of each image is performed as a frame image (image image). As shown in FIG. 34, it has been explained that the font rendering system FRDSTM exists in the presentation engine PRSEN and character information in a specified font format is converted into an image image. Can also move the font rendering system FRDSTM from the layout manager LOMNG to convert text information into a frame image (image image) and place it on the graphic plane GRPHPL. In the present embodiment, as shown in FIG. 43, the entire image on the graphic plane GRPHPL or the components of the individual image images are made translucent, and the sub-picture plane SBPCPL, sub-video plane SBVDPL, or main video plane existing below the image plane MNVDPL video can be set to show through. The transparency with respect to the lower surface of the component (or the entire image) of each image in the graphic plane GRPHPL is defined by an alpha value. If the alpha value is set in this way, the layout manager LOMNG sets the semi-transparent shape in accordance with the alpha value so that the layout manager LOMNG is arranged at a designated location on the graphic plane GRPHPL.

本実施形態におけるプレゼンテーションエンジンPRSENにおけるグラフィックプロセスモデルを図36に示す。   FIG. 36 shows a graphic process model in the presentation engine PRSEN in this embodiment.

グラフィックプロセスを行う前にアドバンストアプリケーションADAPLの情報は、本実施形態では予めファイルキャッシュFLCCH内に圧縮された形で(コンプレッションフォームCMPFRM)記録されている。また、前記グラフィックプロセスにより作成されたグラフィックイメージ(イメージ画像)は、後述するように図43のグラフィックプレインGRPHPL上に表示される。また前記グラフィックプレインGRPHPL上においては図44に示すようにカンバス座標CNVCRDが定義され、前記カンバス座標CNVCRD上に各デコード後のグラフィックイメージ(アニメーションを含むイメージ画像)が配置される。   Prior to the graphic process, the information of the advanced application ADAPL is recorded in a compressed form (compression form CMPFRM) in the file cache FLCCH in the present embodiment. The graphic image (image image) created by the graphic process is displayed on the graphic plane GRPHPL in FIG. 43 as will be described later. On the graphic plane GRPHPL, canvas coordinates CNVCRD are defined as shown in FIG. 44, and each decoded graphic image (image image including animation) is arranged on the canvas coordinates CNVCRD.

1)図36の実施形態では、ファイルキャッシュFLCCH内に(a)(b)(c)の3種類のグラフィックオブジェクトがコンプレッションフォームCMPFRM(圧縮された形)で事前に記録されている。また、ファイルキャッシュFLCCH内に“ABC”の例に示すようにアドバンストアプリケーションADAPLのテキスト情報も記録することができる。   1) In the embodiment of FIG. 36, three types of graphic objects (a), (b), and (c) are recorded in advance in a compression cache CMPFRM (compressed form) in the file cache FLCCH. Further, as shown in the example of “ABC”, text information of the advanced application ADAPL can be recorded in the file cache FLCCH.

2)図35に示すグラフィックデコーダーGHCDECにより図36(1)に示す圧縮された(a)(b)(c)の情報がデコード処理されてイメージ画像(ピクセルイメージPIXIMG)に変換され、その結果がピクセルバッファーPIXBUF内に保存される(図36(2))。また同様にファイルキャッシュFLCCH内に記録されたテキスト情報“ABC”は、フォントレンダリングシステムFRDSTMによりイメージ画像(ピクセルイメージPIXIMG)に変換され、ピクセルバッファーPIXBUF内に記録される。図32に示すように本実施形態では、ナビゲーションマネージャーNVMNG内にマウスコントローラーMUSCTRもサポートしている。前記マウスコントローラーMUSCTRを経由し、ユーザーがマウスにより図形を描画する場合、各線の始点と終点位置の座標としてラインオブジェクトの形で図形入力されるが、前記ラインオブジェクトはマウスコントローラーMUSCTRを経由しAPIコマンドの形で前述したカンバス座標CNVCRD上にイメージ画像(ピクセルイメージPIXIMG)として描かれる。前記ラインオブジェクトとして描かれたイメージ画像(ピクセルイメージPIXIMG)も同様にピクセルバッファーPIXBUF内に記録される。   2) The graphic decoder GHCDEC shown in FIG. 35 decodes the compressed information (a), (b) and (c) shown in FIG. 36 (1) and converts them into an image (pixel image PIXIMG). It is stored in the pixel buffer PIXBUF (FIG. 36 (2)). Similarly, the text information “ABC” recorded in the file cache FLCCH is converted into an image image (pixel image PIXIMG) by the font rendering system FRDSTM and recorded in the pixel buffer PIXBUF. As shown in FIG. 32, in this embodiment, the mouse controller MUSCTR is also supported in the navigation manager NVMNG. When the user draws a figure with the mouse via the mouse controller MUSCTR, the figure is input in the form of a line object as the coordinates of the start point and end point of each line, but the line object is an API command via the mouse controller MUSCTR. Is drawn as an image image (pixel image PIXIMG) on the canvas coordinate CNVCRD described above. An image image (pixel image PIXIMG) drawn as the line object is also recorded in the pixel buffer PIXBUF.

3)前記一時保存されたデコード後の各種イメージ画像(ピクセルイメージPIXIMG)は、図35のレイアウトマネージャーLOMNG内によりグラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)での配置位置と表示サイズが設定される。図36(3)に示すように同一グラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)に(a)(b)(c)の図面とテキストイメージ“ABC”及びAPIコマンドにより描かれた図形が重なって表示されている。本実施形態においては、各イメージ画像(ピクセルイメージPIXIMG)に対し透明度を規定することで重なった部分の裏側の図形が透けて見えるようになっている。前記各イメージ画像(ピクセルイメージPIXIMG)毎の半透明度をアルファ値(アルファインフォメーション)で定義する。前記レイアウトマネージャーLOMNGでは、各イメージ画像(ピクセルイメージPIXIMG)毎にアルファ値を計算し、重なっている部分において裏側が透けて見えるように設定することができる。図36(3)の例においては(a)(b)のアルファ値を40%(40%透過する)にしている。   3) The arrangement position and display size of various temporarily decoded image images (pixel image PIXIMG) on the graphic surface GRGHSF (on the graphic plane GRPHPL) are set in the layout manager LOMNG of FIG. As shown in FIG. 36 (3), the drawings of (a), (b), and (c), the text image “ABC”, and the figure drawn by the API command are displayed on the same graphic surface GRPHSF (on the graphic plane GRPHPL). Has been. In the present embodiment, by defining transparency for each image image (pixel image PIXIMG), the figure on the back side of the overlapped portion can be seen through. The translucency for each image image (pixel image PIXIMG) is defined by an alpha value (alpha information). In the layout manager LOMNG, an alpha value is calculated for each image image (pixel image PIXIMG), and can be set so that the back side can be seen through in the overlapping portion. In the example of FIG. 36 (3), the alpha value of (a) and (b) is 40% (40% is transmitted).

4)このように合成したグラフィックサーフェスGRPHSF上(グラフィックプレインGRPHPL上)のイメージ画像(フレームイメージ)は、レイアウトマネージャーLOMNGからAVレンダラーAVRNDへ送られる。   4) The image (frame image) on the graphic surface GRGPSF (graphic plane GRPHPL) synthesized in this way is sent from the layout manager LOMNG to the AV renderer AVRND.

図15に示すように情報記録再生装置1内にアドバンストコンテンツ再生部ADVPLが存在する。前記アドバンストコンテンツ再生部ADVPL内には、図16に示すようにプレゼンテーションエンジンPRSENが存在する。またその中に図34に示すようにアドバンストサブタイトルプレーヤーASBPLが存在している。以下に前記アドバンストサブタイトルプレーヤーASBPL内の構造を説明する。   As shown in FIG. 15, an advanced content playback unit ADVPL exists in the information recording / playback apparatus 1. In the advanced content playback unit ADVPL, there is a presentation engine PRSEN as shown in FIG. Among them, as shown in FIG. 34, an advanced subtitle player ASBPL exists. The structure in the advanced subtitle player ASBPL will be described below.

図43に示すように、表示画面上にサブピクチャーやアドバンストサブタイトルADSBTを表示するサブピクチャープレインSBPCPLが存在するが、前記アドバンストサブタイトルプレーヤーASBPLは、前記サブピクチャープレインSBPCPLに表示するサブタイトルイメージを出力する。前記アドバンストサブタイトルプレーヤーASBPLは図37に示すように、パーサーPARSER、ディクレラティブエンジンDECENとレイアウトマネージャーLOMNGから構成されている。また、アドバンストサブタイトルADSBTはアドバンストアプリケーションADAPLのサブセットとして位置づけられる。従って、アドバンストアプリケーションマネージャーADAMNG(図32参照)とアドバンストアプリケーションプレゼンテーションエンジンAAPEN(図34参照)のサブセットモジュールを前記アドバンストサブタイトルプレーヤーASBPL内に持っている。すなわち図34に示すようにアドバンストサブタイトルプレーヤーASBPLとアドバンストアプリケーションプレゼンテーションエンジンAAPENが同一のピクセルバッファーPIXBUFを共有している。また図37に示すようにアドバンストサブタイトルプレーヤーASBPL内のレイアウトマネージャーLOMNGが図35に示すようにアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャーLOMNGと共用し、またアドバンストサブタイトルプレーヤーASBPL内のディクレラティブエンジンDECENが図32に示すようにアドバンストアプリケーションマネージャーADAMNG内のディクレラティブエンジンDECENを共有している。   As shown in FIG. 43, there is a sub-picture plane SBPCPL that displays a sub-picture and an advanced sub-title ADSBT on the display screen. The advanced sub-title player ASBPL outputs a sub-title image to be displayed on the sub-picture plane SBPCPL. As shown in FIG. 37, the advanced subtitle player ASBPL includes a parser PARSER, a declarative engine DECEN, and a layout manager LOMNG. The advanced subtitle ADSBT is positioned as a subset of the advanced application ADAPL. Therefore, the advanced subtitle player ASBPL has subset modules of the advanced application manager ADAMNG (see FIG. 32) and the advanced application presentation engine AAPEN (see FIG. 34). That is, as shown in FIG. 34, the advanced subtitle player ASBPL and the advanced application presentation engine AAPEN share the same pixel buffer PIXBUF. As shown in FIG. 37, the layout manager LOMNG in the advanced subtitle player ASBPL is shared with the layout manager LOMNG in the advanced application presentation engine AAPEN as shown in FIG. 35, and the declarative engine DECEN in the advanced subtitle player ASBPL is used. As shown in FIG. 32, the declarative engine DECEN in the advanced application manager ADAMNG is shared.

まず初めにアドバンストサブタイトルプレーヤーASBPL内のパーサーPARSERはデータキャッシュDTCCH内のファイルキャッシュFLCCH内に格納されているアドバンストサブタイトルのマークアップファイルMRKUPSを読取り、その内容の解析を行う。その解析結果をディクレラティブエンジンDECENへ転送する。前記ディクレラティブエンジンDECENは、アドバンストサブタイトルADSBTのレイアウトや表示形式(スタイル)、表示タイミングに関するプレゼンテーションインフォメーションを管理する。タイトルタイムラインTMLE上の時間進行に合わせてサブタイトルイメージ(テロップ文字のイメージなど)を作成するため、ディクレラティブエンジンDECENは各種コマンドをレイアウトマネージャーLOMNGに転送する。前記ディクレラティブエンジンDEDENから送られるコマンド情報に合わせて、前記レイアウトマネージャーLOMNGはプレゼンテーションエンジンPRSEN内のフロントレンダリングシステムFRDSTMを動かしてテキストイメージ(イメージ画像)を作成する。その後サブピクチャーフレームイメージ(サブピクチャープレインSBPCPL)内における適切な位置に、前記作成したテキストイメージ(イメージ画像)を配置する。その時、前記作成されたテキストイメージ(イメージ画像)はピクセルバッファーPIXBUF上に記録されると共に、レイアウトマネージャーLOMNGによりサブピクチャープレインSBPCPL上にレイアウト処理される。そして、その結果のイメージ画像(フレームイメージ)をサブピクチャープレインSBPCPL上に出力する。   First, the parser PARSER in the advanced subtitle player ASBPL reads the markup file MRKUPS of the advanced subtitle stored in the file cache FLCCH in the data cache DTCCH and analyzes its contents. The analysis result is transferred to the declarative engine DECEN. The declarative engine DECEN manages presentation information regarding the layout, display format (style), and display timing of the advanced subtitle ADSBT. The declarative engine DECEN transfers various commands to the layout manager LOMNG in order to create a subtitle image (such as a telop character image) as time progresses on the title timeline TMLE. In accordance with command information sent from the declarative engine DEDEN, the layout manager LOMNG moves the front rendering system FRDSTM in the presentation engine PRSEN to create a text image (image image). Thereafter, the created text image (image image) is arranged at an appropriate position in the sub-picture frame image (sub-picture plane SBPCPL). At that time, the created text image (image image) is recorded on the pixel buffer PIXBUF, and layout processed on the sub-picture plane SBPCPL by the layout manager LOMNG. Then, the resulting image (frame image) is output on the sub-picture plane SBPCPL.

図34に示すようにフォントレンダリングシステムFRDSTMはプレゼンテーションエンジンPRSEN内に存在し、アドバンストアプリケーションプレゼンテーションエンジンAAPENや、アドバンストサブタイトルプレーヤーASBPLからのリクエストに応じテキストイメージ(イメージ画像)を作成する。前記フォントレンダリングシステムFRDSTM内の構造を図38に示す。   As shown in FIG. 34, the font rendering system FRDSTM exists in the presentation engine PRSEN, and creates a text image (image image) in response to a request from the advanced application presentation engine AAPEN or the advanced subtitle player ASBPL. The structure in the font rendering system FRDSTM is shown in FIG.

フォントレンダリングシステムFRDSTMは、フォントエンジンFONTENを内蔵したデコーダーDECDERとラステライザーRSTRZとフォントキャッシュFONTCCから構成される。ファイルキャッシュFLCCHから読み出されたアドバンストサブタイトルADSBT情報あるいはアドバンストアプリケーションADAPL情報がフォントエンジンFONTENを利用してデコーダーDECDER内によりテキストのイメージ(イメージ画像)が作られる。作成されたテキストイメージ(イメージ画像)のサブピクチャープレインSBPCPL(図43参照)内での表示サイズがラステライザーRSTRZ内のスケーラーSCALERにより設定される。その後、前記作成されたテキストイメージ(イメージ画像)の透明度がアルファマップジェネレーションAMGRTにより指定される。前記作成されたテキストイメージ(イメージ画像)は、必要に応じてフォントキャッシュFONTCC内に一時保存され、必要なタイミングでフォントキャッシュFONTCCからテキストイメージ(イメージ画像)が読み出されて画像表示される。前記アルファマップジェネレーションAMGRTにより作成されたテキストイメージ(イメージ画像)の透明度が規定される。その結果、テキストイメージの重なった部分の下にあるサブビデオプレインSBVDPLまたはメインビデオプレインMNVDPLの(図43参照)の映像を透けて見ることができる。   The font rendering system FRDSTM consists of a decoder DECDER with built-in font engine FONTEN, rasterizer RSTRZ, and font cache FONTCC. The advanced subtitle ADSBT information or advanced application ADAPL information read from the file cache FLCCH is used to create a text image (image) in the decoder DECDER using the font engine FONTEN. The display size of the created text image (image image) in the sub-picture plane SBPCPL (see FIG. 43) is set by the scaler SCALER in the rasterizer RSTRZ. Thereafter, the transparency of the created text image (image image) is designated by alpha map generation AMGRT. The created text image (image image) is temporarily stored in the font cache FONTCC as necessary, and the text image (image image) is read from the font cache FONTCC at a necessary timing and displayed. The transparency of the text image (image image) created by the alpha map generation AMGRT is defined. As a result, the video of the sub video plane SBVDPL or the main video plane MNVDPL (see FIG. 43) below the overlapped portion of the text image can be seen through.

本実施形態において前記アルファマップジェネレーションAMGRTでは、その前段にあるデコーダーDECDERで作成されたテキストイメージ(イメージ画像)全体の透明度を均一に設定できるばかりでなく、前記テキストイメージ(イメージ画像)内の透明度を部分的に変化させることもできる。本実施形態においては、デコーダーDECDERによりテキストキャラクターからテキストイメージ(イメージ画像)に変換する段階でピクセルバッファーPIXBUFを使うこともできる。本実施形態において前記フォントレンダリングシステムFRDSTMがサポートするフォントタイプは、基本的にオープンタイプ(従来一般的に使われるフォントタイプ)である。しかし、それに限らず図13に示したアドバンストエレメントディレクトリADVELの下にあるフォントファイルFONTを利用して、前記フォントファイルFONTに対応したフォントタイプの形でテキストイメージを作成することもできる。   In this embodiment, the alpha map generation AMGRT can not only uniformly set the transparency of the entire text image (image image) created by the decoder DECDER at the preceding stage, but also can set the transparency in the text image (image image). It can also be changed partially. In the present embodiment, the pixel buffer PIXBUF can be used at the stage of conversion from a text character to a text image (image image) by the decoder DECDER. In this embodiment, the font type supported by the font rendering system FRDSTM is basically an open type (a font type generally used in the past). However, the present invention is not limited thereto, and a text image can be created in the form of a font type corresponding to the font file FONT using the font file FONT under the advanced element directory ADVEL shown in FIG.

図16に示すようにアドバンストコンテンツ再生部ADVPL内にプレゼンテーションエンジンPRSENが存在し、前記プレゼンテーションエンジンPRSEN内にセカンダリービデオプレーヤーSCDVPが存在する(図34参照)。図39を用い本実施形態におけるセカンダリービデオプレーヤーSCDVP内構造説明を行う。   As shown in FIG. 16, a presentation engine PRSEN exists in the advanced content playback unit ADVPL, and a secondary video player SCDVP exists in the presentation engine PRSEN (see FIG. 34). The internal structure of the secondary video player SCDVP in this embodiment will be described with reference to FIG.

図12に示すようにセカンダリービデオセットSCDVSにはサブスティテュートオーディオビデオSBTAV、サブスティテュートオーディオSBTAD、とセカンダリーオーディオビデオSCDAVが含まれるが、これらの再生処理を行う部分が前記セカンダリービデオプレーヤーSCDVPである。前記セカンダリービデオセットSCDVSの再生表示オブジェクトは、情報記憶媒体DISC、ネットワークサーバーNTSRVおよびパーシステントストレージPRSTRのいずれ内に保存しておくことができる。図20に示す表示画面例のようにプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSとを同時に同一画面上に表示する場合には、前記セカンダリービデオセットSCDVSの表示再生オブジェクトを事前にファイルキャッシュFLCCH内に保存し、セカンダリービデオセットSCDVSからは前記ファイルキャッシュFLCCHから再生する必要がある。例えば同一の情報記憶媒体DISC内にプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSが異なる場所に記録されている場合、両者を同時に再生しようとすると図15に示す情報記録再生装置1内の情報記録再生部2の中に存在する光学ヘッド(図示していないが)がプライマリービデオセットPRMVSの記録場所とセカンダリービデオセットSCDVSの記録場所間を交互のアクセス制御の繰返しが必要となり、光学ヘッドのアクセス時間の影響で両者を同時に連続再生することが難しくなる。それを回避するため本実施形態ではセカンダリービデオセットSCDVSをファイルキャッシュFLCCH内に保存しておき、情報記録再生部2内の光学ヘッドはプライマリービデオセットPRMVSのみを再生できるようにする。その結果、光学ヘッドのアクセス回数が大幅に低減しプライマリービデオセットPRMVSとセカンダリービデオセットSCDVSとを連続に同一画面上に表示することが可能となる。また、ネットワークサーバーNTSRV内に記録されたセカンダリービデオセットSCDVSをセカンダリービデオプレーヤーSCDVPで再生処理する場合には、セカンダリービデオプレーヤーSCDVP内のデマルチプレクサDEMUXにデータを転送する前に、事前にデータキャッシュDTCCH内のストリーミングバッファーSTRBUF内にセカンダリービデオセットSCDVSを保存しておく必要がある(図29参照)。それにより、ネットワーク経路の転送レートの変動が生じても転送するデータの枯渇を防止することができる。基本的にはネットワークサーバーNTSRV内に保存されたセカンダリービデオセットSCDVSは、データキャッシュDTCCH内のストリーミングバッファーSTRBUF内に事前に保存されるが、本実施形態ではそれに限らずセカンダリービデオセットSCDVSのデータサイズが小さい場合には、データキャッシュDTCCH内のファイルキャッシュFLCCH内に保存することもできる。この場合には、データキャッシュDTCCH内のファイルキャッシュFLCCHからセカンダリービデオセットSCDVSがデマルチプレクサDEMUXへ転送される。図39に示すようにセカンダリービデオプレーヤーSCDVPは、セカンダリービデオプレイバックエンジンSVPBENとデマルチプレクサDEMUXから構成される。図12に示すようにセカンダリービデオセットSCDVS内にはメインオーディオMANADとメインビデオMANVDがパック単位で多重化され、データが記録される(サブビデオSUBVDとサブオーディオSUBADについてもパック単位で多重化され記録されている)。デマルチプレクサDEMUXで、それらのデータをパック毎に分割しデコーダーエンジンDCDENに転送する。すなわちデマルチプレクサDEMUXで抽出されたサブピクチャーパックSP_PCKはサブピクチャーデコーダーSPDECに転送され、サブオーディオパックAS_PCKはサブオーディオデコーダーSADECに転送され、サブビデオパックVS_PCKはサブビデオデコーダーSVDECに転送され、メインオーディオパックAM_PCKはメインオーディオデコーダーMADECに転送されるとともにメインビデオVM_PCKにはメインビデオデコーダーMVDEDに転送される。   As shown in FIG. 12, the secondary video set SCDVS includes a substitute audio video SBTAV, a substitute audio SBTAD, and a secondary audio video SCDAV. The secondary video player SCDVP is the part that performs these playback processes. The reproduction display object of the secondary video set SCDVS can be stored in any of the information storage medium DISC, the network server NTSRV, and the persistent storage PRSTR. When the primary video set PRMVS and the secondary video set SCDVS are simultaneously displayed on the same screen as in the display screen example shown in FIG. 20, the display playback object of the secondary video set SCDVS is stored in the file cache FLCCH in advance. However, it is necessary to reproduce from the file cache FLCCH from the secondary video set SCDVS. For example, when the primary video set PRMVS and the secondary video set SCDVS are recorded in different locations in the same information storage medium DISC, if both are to be played back simultaneously, the information recording / playback unit in the information recording / playback apparatus 1 shown in FIG. The optical head (not shown) in Fig. 2 requires repeated access control between the recording location of the primary video set PRMVS and the recording location of the secondary video set SCDVS, which affects the access time of the optical head. Therefore, it becomes difficult to reproduce both at the same time. In order to avoid this, in this embodiment, the secondary video set SCDVS is stored in the file cache FLCCH so that the optical head in the information recording / reproducing unit 2 can reproduce only the primary video set PRMVS. As a result, the number of accesses of the optical head is greatly reduced, and the primary video set PRMVS and the secondary video set SCDVS can be displayed continuously on the same screen. In addition, when the secondary video set SCDVS recorded in the network server NTSRV is played back by the secondary video player SCDVP, before transferring the data to the demultiplexer DEMUX in the secondary video player SCDVP, the data is stored in the data cache DTCCH in advance. The secondary video set SCDVS must be stored in the streaming buffer STRBUF (see FIG. 29). Thereby, even if the transfer rate of the network path varies, it is possible to prevent the data to be transferred from being depleted. Basically, the secondary video set SCDVS stored in the network server NTSRV is stored in advance in the streaming buffer STRBUF in the data cache DTCCH. However, in this embodiment, the data size of the secondary video set SCDVS is not limited thereto. If it is smaller, it can be stored in the file cache FLCCH in the data cache DTCCH. In this case, the secondary video set SCDVS is transferred from the file cache FLCCH in the data cache DTCCH to the demultiplexer DEMUX. As shown in FIG. 39, the secondary video player SCDVP includes a secondary video playback engine SVPBEN and a demultiplexer DEMUX. As shown in FIG. 12, in the secondary video set SCDVS, the main audio MANAD and the main video MANVD are multiplexed in pack units and data is recorded (the sub video SUBVD and sub audio SUBAD are also multiplexed and recorded in pack units). Have been). The demultiplexer DEMUX divides the data into packs and transfers them to the decoder engine DCDEN. That is, the sub picture pack SP_PCK extracted by the demultiplexer DEMUX is transferred to the sub picture decoder SPDEC, the sub audio pack AS_PCK is transferred to the sub audio decoder SADEC, the sub video pack VS_PCK is transferred to the sub video decoder SVDEC, and the main audio pack AM_PCK is transferred to the main audio decoder MADEC, and at the same time, the main video VM_PCK is transferred to the main video decoder MVDED.

図39に示すセカンダリービデオプレイバックエンジンSVPBENは、セカンダリービデオプレーヤーSCDVPにおける全ての機能モジュールの制御処理を行う。このセカンダリービデオプレイバックエンジンSVPBENの制御は図32に示すナビゲーションマネージャーNVMNG内のプレイリストマネージャーPLMNGからのリクエストに応じて処理を行う。セカンダリービデオセットSCDVSの再生表示を行う場合には、図14に示すようにプレイリストPLLSTがセカンダリービデオセットSCDVSのタイムマップSTMAPを参照することを既に説明した。前記セカンダリービデオプレイバックエンジンSVPBENは、前記セカンダリービデオセットSCDVSのタイムマップSTMAPファイルを再生すると共に内容解析を行い、セカンダリーエンハンストビデオオブジェクトデーターS-EVOBの最適な再生開始位置を算出し、情報記録再生部2(図15参照)内の光学ヘッドに対するアクセス指示を行う。   The secondary video playback engine SVPBEN shown in FIG. 39 performs control processing for all functional modules in the secondary video player SCDVP. The secondary video playback engine SVPBEN is controlled in response to a request from the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. In the case of performing playback display of the secondary video set SCDVS, it has already been explained that the playlist PLLST refers to the time map STMAP of the secondary video set SCDVS as shown in FIG. The secondary video playback engine SVPBEN reproduces the time map STMAP file of the secondary video set SCDVS and performs content analysis to calculate an optimal playback start position of the secondary enhanced video object data S-EVOB, and an information recording / playback unit 2 (see FIG. 15) is instructed to access the optical head.

セカンダリービデオプレーヤーSCDVP内のデマルチプレクサDEMUXは、セカンダリーエンハンストビデオオブジェクトデーターS-EVOBストリームを再生し、各パック毎に分割し、前述したようにデコーダーエンジンDCDEN内の各種デコーダーにパック単位でデータを転送する。デマルチプレクサDEMUXがデコーダーエンジンDCDENに各パックを転送する時には、デコーダーエンジンDCDEN内に含まれる標準クロックのシステムクロックタイミング(SCRタイミング)に合わせ、各パック内に記述されたDTS(デコーディングタイムスタンプ)のタイミングで各種デコーダーへ転送される。   The demultiplexer DEMUX in the secondary video player SCDVP plays the secondary enhanced video object data S-EVOB stream, divides it into each pack, and transfers the data in pack units to the various decoders in the decoder engine DCDEN as described above. . When the demultiplexer DEMUX transfers each pack to the decoder engine DCDEN, the DTS (decoding time stamp) described in each pack is matched with the system clock timing (SCR timing) of the standard clock included in the decoder engine DCDEN. It is transferred to various decoders at timing.

図15に示すアドバンストコンテンツ再生部ADVPL内には、図16に示すようにプレゼンテーションエンジンPRSENが存在する。図34に示すように前記プレゼンテーションエンジンPRSEN内にプライマリービデオプレーヤーPRMVPが存在するが、その内部構造を図40に示す。   As shown in FIG. 16, a presentation engine PRSEN exists in the advanced content playback unit ADVPL shown in FIG. As shown in FIG. 34, the primary video player PRMVP exists in the presentation engine PRSEN, and its internal structure is shown in FIG.

本実施形態においてプライマリービデオプレーヤーPRMVPは、プライマリービデオセットPRMVSの再生に対応している。前記プライマリービデオセットPRMVSは情報記憶媒体DISC内にのみ保存される。図40に示すようにプライマリービデオプレーヤーPRMVPは、DVDプレイバックエンジンDPBKENとデマルチプレクサDEMUXから構成される。図12に示すようにプライマリービデオセットPRMVSの各種のデータータイプには、メインビデオMANVDから副映像SUBPTに至る各種のデータータイプが存在する。デマルチプレクサDEMUXはそれらの各種のデータータイプに応じてデコーダーエンジンDCDEN内の対応したデコーダーに接続されている。すなわち、プライマリーエンハンストビデオオブジェクトデーターP-EVOB内に存在するサブピクチャーパックSP_PCKは、サブピクチャーデコーダーSPDEC内へ転送され、サブオーディオパックAS_PCKはサブオーディオデコーダーSADECに転送され、サブビデオパックVS_PCKはサブビデオデコーダーSVDECに転送され、メインビデオパックAM_PCKはメインオーディオデコーダーMADECに転送されるとともに、メインビデオパックVM_PCKは、メインビデオデコーダーMADECへ転送される。   In the present embodiment, the primary video player PRMVP supports playback of the primary video set PRMVS. The primary video set PRMVS is stored only in the information storage medium DISC. As shown in FIG. 40, the primary video player PRMVP includes a DVD playback engine DPBKEN and a demultiplexer DEMUX. As shown in FIG. 12, the various data types of the primary video set PRMVS include various data types from the main video MANVD to the sub video SUBPT. The demultiplexer DEMUX is connected to a corresponding decoder in the decoder engine DCDEN according to their various data types. That is, the sub-picture pack SP_PCK existing in the primary enhanced video object data P-EVOB is transferred into the sub-picture decoder SPDEC, the sub-audio pack AS_PCK is transferred to the sub-audio decoder SADEC, and the sub-video pack VS_PCK is sub-video decoder. The main video pack AM_PCK is transferred to the SVDEC, the main video pack AM_PCK is transferred to the main audio decoder MADEC, and the main video pack VM_PCK is transferred to the main video decoder MADEC.

図32に示すように、ナビゲーションマネージャーNVMNG内にはプレイリストファイルPLLSTの内容を解析するプレイリストマネージャーPLMNGが存在する。前記プレイリストマネージャーPLMNGからの要求に対応して、プライマリービデオプレーヤーPRMVP内のあらゆる機能モジュールの制御に対応する部分が図40に示すDVDプレイバックエンジンDPBKENである。まず、前記DVDプレイバックエンジンDPBKENはプレイバックに関する管理情報(図13に示すプレイリストファイルPLLSTとビデオタイトルセットインフォメーションファイルADVTSI)の内容を解析し、プライマリービデオセットディレクトリPRMAVの下にあるタイムマップファイルPTMAPを利用し、プライマリーエンハンストビデオオブジェクトデーターP-EVOB内の再生開始位置へアクセス制御する。また、それのみならず前記DVDプレイバックエンジンDPBKENは例えばマルチアングル、オーディオ、サブピクチャーのトラック(ストリーム)切替え、サブビデオSUBVDやサブオーディオSUBADを用いた2画面同時再生などプライマリービデオセットPRMVSの特殊な再生機能の制御も行う。   As shown in FIG. 32, the navigation manager NVMNG includes a playlist manager PLMNG that analyzes the contents of the playlist file PLLST. Corresponding to the request from the playlist manager PLMNG, the part corresponding to the control of all functional modules in the primary video player PRMVP is the DVD playback engine DPBKEN shown in FIG. First, the DVD playback engine DPBKEN analyzes the contents of the management information related to playback (the playlist file PLLST and the video title set information file ADVTSI shown in FIG. 13), and the time map file PTMAP under the primary video set directory PRMAV. Is used to control access to the playback start position in the primary enhanced video object data P-EVOB. In addition, the DVD playback engine DPBKEN has special features of the primary video set PRMVS such as multi-angle, audio, sub-picture track (stream) switching, and simultaneous playback of two screens using sub-video SUBVD and sub-audio SUBAD. It also controls playback functions.

デマルチプレクサDEMUXは、プライマリーエンハンストビデオオブジェクトデーターP-EVOB内に分散配置されている各種ストリーム(パック)データを、プライマリービデオプレーヤーPRMVPに接続されているデコーダーエンジンDCDEN内の対応したデコーダーへ転送しデコード処理をさせる。図示していないが、プライマリーエンハンストビデオオブジェクトデーターP-EVOB内の各パックPCK内にはDTS(デコーディングタイムスタンプ)の情報が含まれており、システムクロック(SCR)のタイミングに合わせ、指定されたDTSの時刻に各パック情報を各種デコーダーへ送り込んでいる。マルチアングルストリームに対しては、プライマリービデオセットのタイムマップファイルPTMAP内の情報またはナビゲーションパックNV_PCKの情報に対応して、情報記憶媒体DISC内に記録されたプライマリーエンハンストビデオオブジェクトデーターP-EVOBのインターリーブドブロック内の適正なデータを再生する処理をデマルチプレクサDEMUXが対応している。   The demultiplexer DEMUX transfers various stream (pack) data distributed in the primary enhanced video object data P-EVOB to the corresponding decoder in the decoder engine DCDEN connected to the primary video player PRMVP for decoding processing. Let Although not shown, each pack PCK in the primary enhanced video object data P-EVOB contains DTS (decoding time stamp) information, which is specified according to the system clock (SCR) timing. Each pack information is sent to various decoders at the time of DTS. For multi-angle streams, interleaved primary enhanced video object data P-EVOB recorded in the information storage medium DISC corresponding to the information in the time map file PTMAP of the primary video set or the information in the navigation pack NV_PCK. The demultiplexer DEMUX supports the process of reproducing the appropriate data in the block.

図16に示すように本実施形態におけるアドバンストコンテンツ再生部ADVPL内にプレゼンテーションエンジンPRSENが存在し、図34に示すようにプレゼンテーションエンジンPRSEN内にデコーダーエンジンDCDENが存在する。前記デコーダーエンジンDCDEN内は図41に示すようにサブオーディオデコーダーSADEC、サブビデオデコーダーSVDEC、メインオーディオデコーダーMADEC、メインビデオデコーダーMVDECとサブピクチャーデコーダーSPDECの5種類のデコーダーから構成されている。また、各デコーダーにはそれぞれサブオーディオバッファーSABUF、サブビデオバッファーSVBUF、メインオーディオバッファーMABUF、メインビデオバッファーMVBUFとサブピクチャーバッファーSPBUFが存在する。また、サブビデオデコーダーSVDECとメインビデオデコーダーMVDEC及びサブピクチャーデコーダーSPDECには、画面上の表示サイズと表示場所を設定するスケーラーSCALERが付属されている。各デコーダーはプライマリービデオプレーヤーPRMVP内のDVDプレイバックエンジンDPBKENと接続されるとともにその制御を受けるばかりでなく、またセカンダリービデオプレーヤーSCDVP内のセカンダリービデオプレイバックエンジンSVPBENと接続されるとともにその制御を受ける。   As shown in FIG. 16, the presentation engine PRSEN exists in the advanced content playback unit ADVPL in the present embodiment, and the decoder engine DCDEN exists in the presentation engine PRSEN as shown in FIG. As shown in FIG. 41, the decoder engine DCDEN is composed of five types of decoders: a sub audio decoder SADEC, a sub video decoder SVDEC, a main audio decoder MADEC, a main video decoder MVDEC, and a sub picture decoder SPDEC. Each decoder has a sub audio buffer SABUF, a sub video buffer SVBUF, a main audio buffer MABUF, a main video buffer MVBUF, and a sub picture buffer SPBUF. The sub video decoder SVDEC, main video decoder MVDEC, and sub picture decoder SPDEC are provided with a scaler SCALER for setting the display size and display location on the screen. Each decoder is not only connected to and controlled by the DVD playback engine DPBKEN in the primary video player PRMVP, but also connected to and controlled by the secondary video playback engine SVPBEN in the secondary video player SCDVP.

プライマリービデオセットPRMVSとセカンダリービデオセットSCDVSは図12内のデータータイプ欄に記載された各種のデータを持っている。   The primary video set PRMVS and the secondary video set SCDVS have various data described in the data type column in FIG.

プライマリービデオセットPRMVSに含まれる各データは、プライマリービデオプレーヤーPRMVP内のデマルチプレクサDEMUXからそれぞれ5種類のストリームに分離されて出力される。各ストリームの処理方法について以下に説明する。メインビデオMANVDのデータが記録されているメインビデオパックVM_PCKは、メインビデオバッファーMVBUFを経由しメインビデオデコーダーMVDEC内でデコード処理される。また、メインオーディオMANADのデータが記録されたメインオーディオパックAM_PCKは、メインオーディオバッファーMABUFを経由し、メインオーディオデコーダーMADEC内でデコード処理される。また、サブビデオSUBVDのデータが記録されたサブビデオパックVS_PCKは、サブビデオバッファーSVBUFを経由し、サブビデオデコーダーSVDEC内でデコード処理される。また、サブオーディオSUBADのデータが記録されたサブオーディオパックAS_PCKは、サブオーディオバッファーSABUFを経由し、サブオーディオデコーダーMADEC内でデコード処理される。最後に副映像SUBPTのデータが記録された副映像パックSP_PCKは、サブビデオバッファーSVBUFを経由し、サブピクチャーデコーダーSPDEC内でデコード処理される。   Each data included in the primary video set PRMVS is separated into five types of streams from the demultiplexer DEMUX in the primary video player PRMVP and output. A method for processing each stream will be described below. The main video pack VM_PCK in which the data of the main video MANVD is recorded is decoded in the main video decoder MVDEC via the main video buffer MVBUF. The main audio pack AM_PCK in which the data of the main audio MANAD is recorded is decoded in the main audio decoder MADEC via the main audio buffer MABUF. The sub video pack VS_PCK in which the data of the sub video SUBVD is recorded is decoded in the sub video decoder SVDEC via the sub video buffer SVBUF. The sub audio pack AS_PCK in which the data of the sub audio SUBAD is recorded is decoded in the sub audio decoder MADEC via the sub audio buffer SABUF. Finally, the sub-picture pack SP_PCK in which the sub-picture SUBPT data is recorded is decoded in the sub-picture decoder SPDEC via the sub-video buffer SVBUF.

同様にセカンダリービデオセットSCDVSに含まれる各データは、セカンダリービデオプレーヤーSCDVP内のデマルチプレクサDEMUXからそれぞれ4種類のストリームに分離され出力される。各ストリームの処理方法について以下に説明する。サブスティテュートオーディオSBTADまたはサブスティテュートオーディオビデオSBTAV内に含まれるメインオーディオMANADのデータが記録されたメインオーディオパックAM_PCKは、メインオーディオバッファーMABUFを経由し、メインオーディオデコーダーMADEC内でデコード処理される。また、サブスティテュートオーディオビデオSBTAV内のメインビデオMANVDのデータが記録されたメインビデオパックVM_PCKは、メインビデオバッファーMVBUFを経由し、メインビデオデコーダーMVDEC内でデコード処理される。また、セカンダリーオーディオビデオSCDAV内のサブビデオSUBVDのデータが記録されたサブビデオパックVS_PCKは、サブビデオバッファーSVBUFを経由し、サブビデオデコーダーSVDEC内でデコード処理される。最後にセカンダリーオーディオビデオSCDAV内のサブオーディオSUBADのデータが記録されたサブオーディオパックAS_PCKはサブオーディオバッファーSABUFを経由し、サブオーディオデコーダーSADEC内でデコード処理される。   Similarly, each data included in the secondary video set SCDVS is separated into four types of streams from the demultiplexer DEMUX in the secondary video player SCDVP and output. A method for processing each stream will be described below. The main audio pack AM_PCK in which the data of the main audio MANAD included in the substitute audio SBTAD or the substitute audio video SBTAV is recorded is decoded in the main audio decoder MADEC via the main audio buffer MABUF. The main video pack VM_PCK in which the data of the main video MANVD in the substitute audio video SBTAV is recorded is decoded in the main video decoder MVDEC via the main video buffer MVBUF. The sub video pack VS_PCK in which the data of the sub video SUBVD in the secondary audio video SCDAV is recorded is decoded in the sub video decoder SVDEC via the sub video buffer SVBUF. Finally, the sub audio pack AS_PCK in which the data of the sub audio SUBAD in the secondary audio video SCDAV is recorded is decoded in the sub audio decoder SADEC via the sub audio buffer SABUF.

図41に示すプライマリービデオプレーヤーPRMVP内のDVDプレイバックエンジンDPBKEN、またはセカンダリービデオプレーヤーSCDVP内のセカンダリービデオプレイバックエンジンSVPBENからのリクエストに対応して、サブピクチャーデコーダーSPDECはサブピクチャーストリームのデコード処理を行う。図43の所で表示画面上の各画面レイヤーについて説明してあるが、前記サブピクチャーデコーダーSPDECの出力はサブピクチャープレインSBPCPL上に表示される。また、本実施形態においては前記サブピクチャープレインSBPCPL内では副映像SUBPTと、アドバンストサブタイトルADSBTのデコード結果を共通に(2者択一的に)表示する。前記アドバンストサブタイトルADSBTは、図34に示すアドバンストサブタイトルプレーヤーASBPL内でデコード処理され出力される。   In response to a request from the DVD playback engine DPBKEN in the primary video player PRMVP shown in FIG. 41 or the secondary video playback engine SVPBEN in the secondary video player SCDVP, the sub-picture decoder SPDEC performs decoding processing of the sub-picture stream. . 43, each screen layer on the display screen has been described. The output of the sub-picture decoder SPDEC is displayed on the sub-picture plane SBPCPL. In this embodiment, the sub-picture plane SBPCPL displays the sub-picture SUBPT and the advanced subtitle ADSBT decoding result in common (or alternatively). The advanced subtitle ADSBT is decoded and output in the advanced subtitle player ASBPL shown in FIG.

サブオーディオデコーダーSADECは、サブオーディオSUBADと呼ばれるオーディオストリームのデコーディングを処理する。本実施形態においてサブビデオデコーダーSVDECは、最大2チャンネルまでの対応を可能とすると共にサンプルレートを48kHz以下にしている。このようにサブオーディオデコーダーSADECの性能を低く抑えることにより、デコーダーエンジンDCDEN内の製造コストを安く抑えることができる。また、前記サブオーディオデコーダーSADECから出力されるオーディオストリームは、サブオーディオストリームSUBADと呼ばれている。   The sub audio decoder SADEC processes decoding of an audio stream called sub audio SUBAD. In the present embodiment, the sub video decoder SVDEC can handle up to two channels and the sample rate is 48 kHz or less. Thus, by suppressing the performance of the sub audio decoder SADEC to a low level, the manufacturing cost in the decoder engine DCDEN can be reduced. An audio stream output from the sub audio decoder SADEC is called a sub audio stream SUBAD.

サブビデオデコーダーSVDECは、サブビデオSUBVDと呼ばれるビデオストリームのデコード処理をサポートする。前記サブビデオデコーダーSVDECは、SD(スタンダードデフィニション)の解像度のサポートを必須とし、オプションとしてHD(ハイデフィニション)の解像度もサポート可能にしている。前記サブビデオデコーダーSVDECから出力されるデータは、サブビデオプレインSBVDPL(図43参照)上に表示される。   The sub video decoder SVDEC supports a video stream decoding process called sub video SUBVD. The sub video decoder SVDEC must support SD (standard definition) resolution, and can optionally support HD (high definition) resolution. The data output from the sub video decoder SVDEC is displayed on the sub video plane SBVDPL (see FIG. 43).

サブビデオデコーダーSVDECの出力側に存在するスケーラーSCALERは以下の3種類の機能を持っている。   The scaler SCALER present on the output side of the sub video decoder SVDEC has the following three functions.

1)出力に必要なディスプレイ解像度に合わせて、サブビデオSUBVDの解像度を変化させる。図15に示す大画面テレビモニター15に出力される時の理想的なサブビデオSUBVDの解像度が決まっている場合、どのような大画面テレビモニター15の解像度にも対応するように前記スケーラーSCALERによりデコードされたサブビデオSUBVDの解像度変化を行う。   1) Change the resolution of the sub video SUBVD according to the display resolution required for output. When the resolution of the ideal sub-video SUBVD when it is output to the large-screen TV monitor 15 shown in FIG. 15 is determined, it is decoded by the scaler SCALER so as to correspond to the resolution of any large-screen TV monitor 15 The resolution of the sub video SUBVD is changed.

2)表示するアスペクト比に合わせたスケーリング機能
大画面テレビモニター15に表示される画面のアスペクト比が元々サブビデオSUBVDで表示すべきアスペクト比と異なっていた場合には、アスペクト比変換を行い大画面テレビモニター15に最適な形で表示するような処理を行う。
2) Scaling function according to the aspect ratio to be displayed If the aspect ratio of the screen displayed on the large-screen TV monitor 15 was originally different from the aspect ratio to be displayed on the sub video SUBVD, the aspect ratio is converted and the large screen is displayed. Processing is performed to display the TV monitor 15 in an optimal form.

3)APIコマンドに基づくスケーリング処理
図43に示した例のように、サブビデオSUBVDとしてコマーシャル用の別画面32を同一画面上の一部に表示する場合、アドバンストアプリケーションADAPLに基づくAPIコマンドにより、前記コマーシャル用の別画面32(サブビデオSUBVD)のサイズを設定することができる。このように本実施形態ではAPIコマンドに基づき、前記スケーラーSCALER内で最適な表示画面サイズを設定する。この場合には元々設定されていたサブビデオSUBVDのアスペクト比は、変わらず全体のサイズのみが変化される形となる。
3) Scaling processing based on API command As in the example shown in FIG. 43, when another commercial screen 32 is displayed as a sub video SUBVD on a part of the same screen, the API command based on the advanced application ADAPL The size of the separate screen 32 (sub video SUBVD) for commercials can be set. As described above, in this embodiment, an optimal display screen size is set in the scaler SCALER based on the API command. In this case, the aspect ratio of the sub-video SUBVD that was originally set does not change and only the entire size is changed.

本実施形態においてメインオーディオデコーダーMADEC内は、7.1チャンネルまでのマルチチャンネルオーディオとサンプリングレート192kHzまでの音声に対してデコードをサポートする。前記、メインオーディオデコーダーMADECでデコードされたデータをメインオーディオMANADと呼ぶ。   In the present embodiment, the main audio decoder MADEC supports decoding for multi-channel audio up to 7.1 channels and audio up to a sampling rate of 192 kHz. The data decoded by the main audio decoder MADEC is called main audio MANAD.

メインビデオデコーダーMVDECは、HD(ハイデフィニション)の解像度をサポートすることができ、デコードされた映像情報はメインビデオMANVDと呼ばれている。このようにメインビデオデコーダーMVDECで高解像度のデコードを可能とすることによりユーザー要求に応じた高画質を可能とする。さらにそれと平行してサブビデオデコーダーSVDECを持つことで、同時に2画面表示が可能になるばかりでなく、サブビデオデコーダーSVDECのデコード能力を制限することにより、デコーダーエンジンDCDENの価格を抑えることができる。前記メインビデオデコーダーMVDECでデコードされた画面は、メインビデオプレインMNVDPL(図43参照)上に表示される。メインビデオデコーダーMVDECはメインビデオMANVDをデコードするが、本実施形態においてデコード後の映像の表示サイズは、アパーチャーAPTR(図44参照)と呼ばれるグラフィックプレインGRPHPL(図43参照)上のサイズと一致しなければならない。また、本実施形態ではナビゲーションマネージャーNVMNGから与えられるポジションインフォメーションPOSITIとスケールインフォメーションSCALEIに対応し(図45参照)、デコード後のメインビデオMANVDはスケーラーSCALERにより、前記アパーチャーAPTR上の適正なサイズにスケーリングされるとともに前記アパーチャーAPTR上の適正な位置に配置される。また、前記ナビゲーションマネージャーNVMNGから転送されるスケール情報の中には、メインビデオプレインMNVDPLの画面の枠を表示する枠部分の色に対する情報も含まれる。本実施形態においては、前記枠組みの色はデフォルト状態において、“0,0,0”(黒色)として設定されている。   The main video decoder MVDEC can support HD (high definition) resolution, and the decoded video information is called main video MANVD. In this way, the main video decoder MVDEC enables high resolution decoding, thereby enabling high image quality according to user requirements. Furthermore, by having the sub video decoder SVDEC in parallel therewith, not only two screens can be displayed simultaneously, but also the price of the decoder engine DCDEN can be suppressed by limiting the decoding capability of the sub video decoder SVDEC. The screen decoded by the main video decoder MVDEC is displayed on the main video plane MNVDPL (see FIG. 43). The main video decoder MVDEC decodes the main video MANVD. In this embodiment, the display size of the decoded video must match the size on the graphic plane GRPHPL (see FIG. 43) called the aperture APTR (see FIG. 44). I must. In this embodiment, the position information POSITI and scale information SCALEI given from the navigation manager NVMNG are supported (see FIG. 45), and the decoded main video MANVD is scaled to an appropriate size on the aperture APTR by the scaler SCALER. And is arranged at an appropriate position on the aperture APTR. Further, the scale information transferred from the navigation manager NVMNG includes information on the color of the frame portion that displays the frame of the screen of the main video plane MNVDPL. In the present embodiment, the color of the frame is set as “0, 0, 0” (black) in the default state.

メインビデオデコーダーMVDECの出力側に存在するスケーラーSCALERは、以下に述べる3種類の機能を持っている。   The scaler SCALER present on the output side of the main video decoder MVDEC has the following three functions.

1)出力に必要なディスプレイ解像度に合わせて、メインビデオMANVDの解像度を変化させる。図15に示す大画面テレビモニター15に出力される時の理想的なメインビデオMANVDの解像度が決まっている場合、どのような大画面テレビモニター15(図15参照)にも対応するように前記スケーラーSCALERによりデコードされたサブビデオSUBVDメインビデオMANVDを行う。   1) Change the resolution of the main video MANVD according to the display resolution required for output. When the resolution of the ideal main video MANVD when it is output to the large-screen TV monitor 15 shown in FIG. 15 is determined, the scaler is adapted to correspond to any large-screen TV monitor 15 (see FIG. 15). Sub video SUBVD main video MANVD decoded by SCALER is performed.

2)表示するアスペクト比に合わせたスケーリング機能
大画面テレビモニター15に表示される画面のアスペクト比が元々メインビデオMANVDで表示すべきアスペクト比と異なった場合、大画面テレビモニター15に最適な形で表示するようにアスペクト比の変換処理を行う。
2) Scaling function according to the aspect ratio to be displayed When the aspect ratio of the screen displayed on the large-screen TV monitor 15 is different from the aspect ratio that should be displayed on the main video MANVD, it is optimal for the large-screen TV monitor 15. Aspect ratio conversion processing is performed so as to display.

3)APIコマンドに基づくスケーリング処理
図43に示すようにメインビデオMANVD(本編31)を表示する場合、アドバンストアプリケーションADAPLに対応したAPIコマンドによりメインビデオMANVD(本編31)のサイズを指定することができる。このようにAPIコマンドに基づき、前記スケーラーSCALER内で最適な画面サイズを設定する場合には、元々設定されていたメインビデオMANVDのアスペクト比は、元のまま変わらずに全体のサイズのみが変化される(APIコマンドによっては特定のアスペクト比への変換は許されない)ことになる。この場合デフォルト状態において、メインビデオMANVDはフルスクリーンに表示されるように設定されている。例えばアスペクト比が4:3の場合にはワイド画面に表示すると幅が狭くなるので、ワイド画面上の中央部に幅の狭い表示画面が表示される。また、特にアパーチャーAPTRのサイズを「1920×1080」もしくは「1280×720」と設定した場合(ワイド画面対応)には、ワイド画面全体に表示される。
3) Scaling processing based on API command When displaying the main video MANVD (main part 31) as shown in FIG. 43, the size of the main video MANVD (main part 31) can be specified by an API command corresponding to the advanced application ADAPL. . In this way, when setting the optimal screen size in the scaler SCALER based on the API command, the aspect ratio of the main video MANVD that was originally set remains unchanged and only the overall size is changed. (Conversion to a specific aspect ratio is not allowed for some API commands). In this case, in the default state, the main video MANVD is set to be displayed on the full screen. For example, when the aspect ratio is 4: 3, the width becomes narrow when displayed on a wide screen, and therefore a narrow display screen is displayed at the center of the wide screen. In particular, when the aperture APTR size is set to “1920 × 1080” or “1280 × 720” (compatible with a wide screen), the aperture APTR is displayed on the entire wide screen.

図15に示すように情報記録再生装置1内にはアドバンストコンテンツ再生部ADVPLが存在するが、図16に示すように前記アドバンストコンテンツ再生部ADVPL内には、AVレンダラーAVRNDが存在する。前記AVレンダラーAVRNDは図42に示すように、グラフィックレンダリングエンジンGHRNENとオーディオミキシングエンジンADMXENから構成されている。グラフィックレンダリングエンジンGHRNENは、図16に示すナビゲーションマネージャーNVMNGとプレゼンテーションエンジンPRSENから来る情報を元にグラフィックプレインGRPHPL(図43参照)上での画像の合成処理を行う。また、前記オーディオミキシングエンジンADMXENでは、プレゼンテーションエンジンPRSENから来る音声情報(PCMストリーム)を合成し、合成された音声情報を出力する。   As shown in FIG. 15, an advanced content playback unit ADVPL exists in the information recording / playback apparatus 1, but as shown in FIG. 16, an AV renderer AVRND exists in the advanced content playback unit ADVPL. As shown in FIG. 42, the AV renderer AVRND includes a graphic rendering engine GHRNEN and an audio mixing engine ADMXEN. The graphic rendering engine GHRNEN performs image synthesis processing on the graphic plane GRPHPL (see FIG. 43) based on information coming from the navigation manager NVMNG and the presentation engine PRSEN shown in FIG. The audio mixing engine ADMXEN synthesizes audio information (PCM stream) coming from the presentation engine PRSEN and outputs the synthesized audio information.

ユーザーに表示する画面は図43で詳しく説明するように、カーソルプレインCRSRPL、グラフィックプレインGHRHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMDVDPLの5プレインから構成されており、前記グラフィックレンンダリングエンジンGHRNEN上で前記5プレインを合成処理する。図42に示すプレゼンテーションエンジンPRSENは、グラフィックプレインGHRHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの各プレイン上の画像を作成し、グラフィックレンダリングエンジンGHRNENへ転送する。前記グラフィックレンダリングエンジンGHRNEN内では新たにカーソルプレインCRSRPLを作成する。前記グラフィックレンダリングエンジンGHRNEN内でカーソルイメージCRSIMGを作成するとともにナビゲーションマネージャーNVMNGから送られてくるカーソルのカーソルイメージCRSIMGの位置情報に基づいてカーソルプレインCRSRPL上にカーソルイメージCRSIMGを配置する。その結果、前記グラフィックレンダリングエンジンGHRNENは、ナビゲーションマネージャーNVMNGからの制御情報に基づき前記5プレインを合成処理した後、合成した画像をビデオ信号として出力する。   As shown in detail in FIG. 43, the screen displayed to the user is composed of five planes: a cursor plane CRSRPL, a graphic plane GHRHPL, a sub-picture plane SBPCPL, a sub-video plane SBVDPL, and a main video plane MDVDPL. The 5 planes are synthesized on the engine GHRNEN. The presentation engine PRSEN shown in FIG. 42 creates images on each of the graphic plane GHRHPL, the sub-picture plane SBPCPL, the sub-video plane SBVDPL, and the main video plane MNVDPL, and transfers them to the graphic rendering engine GHRNEN. In the graphic rendering engine GHRNEN, a cursor plane CRSRPL is newly created. A cursor image CRSIMG is created in the graphic rendering engine GHRNEN, and the cursor image CRSIMG is arranged on the cursor plane CRSRPL based on the position information of the cursor image CRSIMG of the cursor sent from the navigation manager NVMNG. As a result, the graphic rendering engine GHRNEN combines the five planes based on the control information from the navigation manager NVMNG, and then outputs the combined image as a video signal.

オーディオミキシングエンジンADMXENは、プレゼンテーションエンジンPRSENから送られてくる最大3種類までのリニアPCMストリームを同時に受取り、音声合成することができる。その時、前記オーディオミキシングエンジンADMXENは、ナビゲーションマネージャーNVMNGから与えられるミキシングレベル情報に基づき前記リニアPCMストリーム毎の音量設定をした後出力する。   The audio mixing engine ADMXEN can simultaneously receive and synthesize up to three types of linear PCM streams sent from the presentation engine PRSEN. At this time, the audio mixing engine ADMXEN sets the volume for each linear PCM stream based on the mixing level information given from the navigation manager NVMNG and outputs the result.

図43に示すように本実施形態において表示画面上では画面がカーソルプレインCRSRPL、グラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの5画面レイヤーから構成されている。本実施形態において、カーソルプレインCRSRPLである1画面レイヤーは、AVレンダラーAVRND内のグラフィックレンダリングエンジンGHRNEN(図45参照)内で作成される。また、図43におけるグラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの4画面レイヤーはプレゼンテーションエンジンPRSEN(図45参照)内で作成される。前記グラフィックレンダリングエンジンGHRNENに入力されるプレゼンテーションエンジンPRSEN内で作成されるグラフィックプレインGRPHPL、サブピクチャープレインSBPCPL、サブビデオプレインSBVDPLとメインビデオプレインMNVDPLの4画面レイヤーのフレームレートはそれぞれ独自に設定することが可能となっている。すなわち、プレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENから出力される映像のフレームレートとアドバンストサブタイトルプレーヤーASBPLから出力される映像のフレームレートとセカンダリービデオプレーヤーSCDVPから出力される映像のフレームレート及び、プライマリービデオプレーヤーPRMVPから出力される映像のフレームレートがそれぞれ独自のフレームレートを持つことが可能となっている。図43に示すメインビデオプレインMNVDPLは、図45または図34に示すプライマリービデオプレーヤーPRMVPからデコーダーエンジンDCDENを経由しスケーラーSCALERを経た後の出力として得られる。また、サブビデオプレインSBVDPLの画面レイヤーはセカンダリービデオプレーヤーSCDVPからデコーダーエンジンDCDENを経た後スケーラーSCALERの出力として作成される。また、サブビデオプレインSBVDPLは、図45または図34に示すアドバンストサブタイトルプレーヤーASBPLの出力またはサブピクチャーデコーダーSPDECからスケーラーSCALERを経た画面のいずれかが選択されて作成される。グラフィックプレインGRPHPLとアドバンストアプリケーションプレゼンテーションエンジンAAPENの出力として得られる。   As shown in FIG. 43, in the present embodiment, on the display screen, the screen is composed of five screen layers of a cursor plane CRSRPL, a graphic plane GRPHPL, a sub-picture plane SBPCPL, a sub-video plane SBVDPL, and a main video plane MNVDPL. In the present embodiment, the one-screen layer that is the cursor plane CRSRPL is created in the graphic rendering engine GHRNEN (see FIG. 45) in the AV renderer AVRND. Also, the four screen layers of the graphic plane GRPHPL, the sub-picture plane SBPCPL, the sub-video plane SBVDPL, and the main video plane MNVDPL in FIG. 43 are created in the presentation engine PRSEN (see FIG. 45). The frame rate of the four screen layers of the graphic plane GRPHPL, sub-picture plane SBPCPL, sub-video plane SBVDPL and main video plane MNVDPL created in the presentation engine PRSEN input to the graphic rendering engine GHRNEN can be set independently. It is possible. That is, the frame rate of video output from the advanced application presentation engine AAPEN in the presentation engine PRSEN, the frame rate of video output from the advanced subtitle player ASBPL, the frame rate of video output from the secondary video player SCDVP, and the primary video Each frame rate of video output from the player PRMVP can have its own frame rate. The main video plane MNVDPL shown in FIG. 43 is obtained as an output after passing through the scaler SCALER via the decoder engine DCDEN from the primary video player PRMVP shown in FIG. 45 or FIG. The screen layer of the sub video plane SBVDPL is created as an output of the scaler SCALER after passing through the decoder engine DCDEN from the secondary video player SCDVP. In addition, the sub video plane SBVDPL is created by selecting either the output of the advanced subtitle player ASBPL shown in FIG. 45 or FIG. 34 or the screen through the scaler SCALER from the sub picture decoder SPDEC. Obtained as output of graphic plane GRPHPL and advanced application presentation engine AAPEN.

以下に図43の例を用いてグラフィックプレインGRPHPL内の領域定義について説明する。図43の下側に示す合成画面はユーザーが見る画面のフルサイズ画面を現している。テレビの画面に対するワイド画面や標準画面などにより最適に表示すべき画面寸法サイズ(解像度)が異なる。本実施形態ではこのユーザーに表示すべき最適な画面サイズをグラフィックプレインGRPHPLで定義する。すなわち、グラフィックプレインGRPHPL上でユーザーに表示する最適な画面サイズ(走査線の数とドット数で設定されるが、このユーザーに表示される最適な画面サイズ(画素数)をグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)サイズとして定義する。従って、ユーザーに表示する画面が高解像度の画面の場合には、グラフィックプレインGRPHPL上でのアパーチャーAPTR(グラフィック領域)のサイズが大きくなり、ユーザーに表示すべき画面サイズ(解像度)が従来の標準サイズの場合には、アパーチャーAPTR(グラフィック領域)のサイズが解像度(トータル画素数)に比例して小さくなる。もし、図43に示した例と異なり、ユーザー画面上前面に亘りプライマリーオーディオビデオPRMAVのメインビデオMANVDをフル画面で表示した場合には、このメインビデオプレインMNVDPL上の画面サイズがグラフィックプレインGRPHPL上でのアパーチャーAPTR(グラフィック領域)のサイズに完全に一致する。図43に示すように、合成画面の下側領域にヘルプアイコン33からFFボタン38までに至るアドバンストアプリケーションADAPLをまとめて表示する場合には、アパーチャーAPTR(グラフィック領域)内で前記アドバンストアプリケーションADAPLをまとめて表示する領域(アプリケーション領域APPRGN)を定義したほうが表示制御し易くなる。このため本実施形態ではアドバンストアプリケーションADAPLに含まれる複数のエレメントをまとめて表示する領域としてアプリケーション領域APPRGNを定義することができる。本実施形態においては、グラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)内に複数のアプリケーション領域APPRGNを設定することができる。以下の内容の詳細については図44を用いて詳細に説明する。   The area definition in the graphic plane GRPHPL will be described below using the example of FIG. The composite screen shown at the bottom of FIG. 43 represents a full-size screen viewed by the user. The screen size size (resolution) that should be optimally displayed differs depending on the wide screen or standard screen of the TV screen. In the present embodiment, the optimal screen size to be displayed to the user is defined by the graphic plane GRPHPL. In other words, the optimal screen size displayed to the user on the graphic plane GRPHPL (set by the number of scanning lines and the number of dots, but the optimal screen size (number of pixels) displayed to the user is set to the aperture on the graphic plane GRPHPL. Defined as APTR (graphic area) size, so if the screen displayed to the user is a high-resolution screen, the size of the aperture APTR (graphic area) on the graphic plane GRPHPL will be larger and should be displayed to the user When the screen size (resolution) is the conventional standard size, the size of the aperture APTR (graphic area) becomes smaller in proportion to the resolution (total number of pixels), unlike the example shown in FIG. Full-screen main video MANVD of primary audio video PRMAV In this case, the screen size on the main video plane MNVDPL completely matches the size of the aperture APTR (graphic area) on the graphic plane GRPHPL, as shown in FIG. When displaying the advanced application ADAPL from the help icon 33 to the FF button 38 collectively, it is better to define the area (application area APPRGN) that displays the advanced application ADAPL in the aperture APTR (graphic area). For this reason, in this embodiment, an application area APPRGN can be defined as an area for displaying a plurality of elements included in the advanced application ADAPL collectively.In this embodiment, the aperture on the graphic plane GRPHPL A plurality of application areas APPRGN can be set in the APTR (graphic area), and details of the following contents will be described in detail with reference to FIG.

図43に合成画面の画面サイズに合わせてグラフィックプレインGRPHPL上にアパーチャーAPTR(グラフィック領域)が設定できることを説明した。また前記アパーチャーAPTR(グラフィック領域)内に1以上のアドバンストアプリケーションADAPLをまとめて表示する領域として、1以上のアプリケーション領域APPRGNが設定できることを説明した。図44を用いて、より詳細な説明を行う。   FIG. 43 illustrates that the aperture APTR (graphic area) can be set on the graphic plane GRPHPL in accordance with the screen size of the composite screen. Further, it has been described that one or more application areas APPRGN can be set as an area for collectively displaying one or more advanced applications ADAPL in the aperture APTR (graphic area). A more detailed description will be given with reference to FIG.

グラフィックプレインGRPHPLは、カンバスと呼ばれる座標系(カンバス座標CNVCRD)を定義することができる。本実施形態において、グラフィックプレインGRPHPL上に画面合成することができる四角い領域が、前記カンバス座標CNVCRD内に定義することができる。この四角い領域をアパーチャーAPTR(グラフィック領域)と呼ぶ。前記カンバス座標CNVCRDにおけるグラフィック領域の原点位置(0,0)と前記アパーチャーAPTR(グラフィック領域)の端点(原点)の位置が本実施形態では一致させている。従ってカンバス座標CNVCRDにおいて、アパーチャーAPTR(グラフィック領域)の端点(原点)の位置は(0,0)となる。アパーチャーAPTR(グラフィック領域)のX軸とY軸の単位はそれぞれ画素数単位で識別される。例えばユーザーに表示する画面の画素数が1920×1080の場合には、それに対応したアパーチャーAPTR(グラフィック領域)のもう一方の端の位置の(1920,1080)を定義することができる。前記アパーチャーAPTR(グラフィック領域)のサイズは、プレイリストPLLST内で定義される。本実施形態においてアドバンストアプリケーションADSBTは、独自の座標系を設定することができる。前記独自の座標系は、四角い領域で前記カンバス座標CNVCRD内に設定することができ、前記四角い領域はアプリケーション領域APPRGNと呼ぶ。各アドバンストアプリケーションADAPLは、それぞれ少なくとも1個のアプリケーション領域APPRGNを持つことができる。また、前記アプリケーション領域APPRGNの設定場所は前記カンバス座標CNVCRD上のX、Y座標値により指定することができる。すなわち図44に示すようにアプリケーション領域APPRGN#1のアパーチャーAPTRグラフィック領域)の配置場所はアプリケーション領域APPRGN#1の端点(原点)のカンバス座標CNVCRD内でのカンバス座標CNVCRD座標値で設定される。   The graphic plane GRPHPL can define a coordinate system called a canvas (canvas coordinate CNVCRD). In the present embodiment, a square area that can be synthesized on the graphic plane GRPHPL can be defined in the canvas coordinates CNVCRD. This square area is called an aperture APTR (graphic area). In the present embodiment, the origin position (0, 0) of the graphic area in the canvas coordinates CNVCRD and the position of the end point (origin point) of the aperture APTR (graphic area) are matched. Accordingly, in the canvas coordinate CNVCRD, the position of the end point (origin) of the aperture APTR (graphic area) is (0, 0). The unit of the X-axis and Y-axis of the aperture APTR (graphic area) is identified by the number of pixels. For example, when the number of pixels of the screen displayed to the user is 1920 × 1080, the position (1920, 1080) of the other end of the aperture APTR (graphic region) corresponding to the pixel number can be defined. The size of the aperture APTR (graphic area) is defined in the playlist PLLST. In this embodiment, the advanced application ADSBT can set its own coordinate system. The unique coordinate system can be set in the canvas coordinate CNVCRD as a square area, and the square area is called an application area APPRGN. Each advanced application ADAPL can have at least one application area APPRGN. Further, the setting location of the application area APPRGN can be designated by the X and Y coordinate values on the canvas coordinates CNVCRD. That is, as shown in FIG. 44, the location of the application area APPRGN # 1 aperture APTR graphic area) is set by the canvas coordinate CNVCRD coordinate value in the canvas coordinate CNVCRD of the end point (origin) of the application area APPRGN # 1.

本実施形態では前記アプリケーション領域APPRGN内にアドバンストアプリケーションADAPL内の複数のエレメント(アプリケーションエレメント又はチャイルドエレメント)として特定の静止画IMAGEなどを配置することができる。前記アプリケーション領域内の各エレメントの配置場所を示す方法として、前記アプリケーション領域APPRGN内の独立した座標系のX、Y値を定義することができる。すなわち図44に示すように、アプリケーション領域APPRGN#1内に独自のアプリケーション領域内座標系を持ち、前記アプリケーション領域内座標値として前記エレメントの配置場所を指定することができる。例えば図44に示すように、アプリケーション領域APPRGN#1のサイズが原点(0,0)から(x2,y2)まで規定されていた場合、エレメント例として白抜き四角の部分を配置する時に(x1,y1)の座標により、前記白抜き四角のアプリケーション領域APPRGN内の位置を指定することができる。このように複数の前記エレメントは、独自な座標系(アプリケーション領域内座標)により配置することができ、前記エレメントの一部が前記アプリケーション領域APPRGNからはみ出してもよい。この場合にはアパーチャーAPTR(グラフィック領域)内に配置されたアプリケーション領域APPRGN内の中に含まれるエレメント部分のみがユーザーに対して表示される。   In the present embodiment, a specific still image IMAGE or the like can be arranged as a plurality of elements (application elements or child elements) in the advanced application ADAPL in the application area APPRGN. As a method for indicating the arrangement location of each element in the application area, X and Y values of independent coordinate systems in the application area APPRGN can be defined. That is, as shown in FIG. 44, the application area APPRGN # 1 has its own application area coordinate system, and the location of the element can be designated as the application area coordinate value. For example, as shown in FIG. 44, when the size of the application area APPRGN # 1 is defined from the origin (0,0) to (x2, y2), when the white square portion is arranged as an example element (x1, The position in the white square application area APPRGN can be designated by the coordinates of y1). As described above, the plurality of elements can be arranged by a unique coordinate system (coordinates in the application area), and a part of the elements may protrude from the application area APPRGN. In this case, only the element portion included in the application area APPRGN arranged in the aperture APTR (graphic area) is displayed to the user.

図42に示したAVレンダラーAVRND内のグラフィックレンダリングエンジンGHRNEN内の詳細構造と図34に示したプレゼンテーションエンジンPRSEN内の各種エンジンとプレーヤーとの関係を図45に示す。   FIG. 45 shows the detailed structure in the graphic rendering engine GHRNEN in the AV renderer AVRND shown in FIG. 42 and the relationship between the various engines and players in the presentation engine PRSEN shown in FIG.

本実施形態において図43に示すようにユーザーに表示する画面は、5つの画面レイヤーから構成され、それらの各画面レイヤーの画像はオーバーレイコントローラーOVLCTRで合成される。また本実施形態においては、オーバーレイコントローラーOVLCTRへ入力される各画面レイヤーにおけるフレームレート(1秒間に表示される画面の数)を、それぞれ各画面レイヤー毎に独自に設定できるところに本実施形態の大きな特徴がある。それによりフレームレートの制約を受けることなく、各画面レイヤー毎の最適なフレームレートが設定でき、ユーザーに対してより効果的な画面を表示することができる。   In this embodiment, as shown in FIG. 43, the screen displayed to the user is composed of five screen layers, and the images of these screen layers are synthesized by the overlay controller OVLCTR. Also, in this embodiment, the frame rate (number of screens displayed per second) in each screen layer input to the overlay controller OVLCTR can be set independently for each screen layer. There are features. Thereby, an optimal frame rate for each screen layer can be set without being restricted by the frame rate, and a more effective screen can be displayed to the user.

図43に示すメインビデオプレインMNVDPLに関しては、プライマリービデオプレーヤーPRMVPの出力動画とセカンダリービデオプレーヤーSCDVPの出力動画の中のサブスティテュートオーディオビデオSBTAVのうち、いずれか一方が選択されクロマインフォメーションCRMIを考慮された後、デコーダーエンジンDCDEN内のメインビデオデコーダーMVDEC内でデコード処理される。その後、スケーラーSCALERにより画面サイズと表示画面位置が設定され、オーバーレイコントローラーOVLCTRに入力される。   For the main video plane MNVDPL shown in FIG. 43, either one of the output video of the primary video player PRMVP and the substitute audio video SBTAV in the output video of the secondary video player SCDVP is selected and the chroma information CRMI is considered. After that, decoding processing is performed in the main video decoder MVDEC in the decoder engine DCDEN. After that, the screen size and display screen position are set by the scaler SCALER and input to the overlay controller OVLCTR.

サブビデオプレインSBVDPLにおいては、プライマリービデオプレーヤーPRMVPから出力されたサブビデオSUBVDかセカンダリープレーヤーSCDVPから出力されたサブビデオSUBVDを、クロマインフォメーションCRMIを考慮した上でデコーダーエンジンDCDEN内のサブビデオデコーダーSVDECに入力される。そこでデコードされた出力動画は、スケーラーSCALERにより表示サイズと画面上の表示位置が設定された後クロマイフェクトCRMEFTの処理を行い、オーバーレイコントローラーOVLCTRに入力される。この時サブビデオプレインSBVDPLは、下側のメインビデオプレインMNVDPLを表示できるようにする透明度を表すアルファーインフォメーションに対応して、半透明な形でオーバーレイコントローラーOVLCTRに入力することができる。   In the sub video plane SBVDPL, the sub video SUBVD output from the primary video player PRMVP or the sub video SUBVD output from the secondary player SCDVP is input to the sub video decoder SVDEC in the decoder engine DCDEN in consideration of chroma information CRMI. Is done. The decoded output video is processed by the chromifect CRMEFT after the display size and the display position on the screen are set by the scaler SCALER and input to the overlay controller OVLCTR. At this time, the sub video plane SBVDPL can be input to the overlay controller OVLCTR in a semi-transparent form corresponding to alpha information indicating transparency that enables the lower main video plane MNVDPL to be displayed.

サブピクチャープレインSBPCPLに表示される映像は、アドバンストサブタイトルADSBTかプライマリーオーディオビデオPRMAVの副映像SUBPTのいずれかが表示される。すなわちアドバンストサブタイトルADSBTはアドバンストサブタイトルプレーヤーASBPL内のレイアウトマネージャーLOMNGで表示画面サイズと表示位置が設定された後、スイッチSWITCHへ入力される。また、プライマリーオーディオビデオPRMAVの副映像SUBPTはプライマリービデオプレーヤーPRMVPからデコーダーエンジンDCDEN内のサブピクチャーデコーダーSPDEC内に副映像SUBPTが入力され、そこでデコードされた後スケーラーSCALERにより表示画面サイズと表示位置画面サイズが設定される。その後同様にスイッチSWITCHに入力される。本実施形態では、図45に示すようにスイッチSWITCHによる選択処理によりアドバンストサブタイトルADSBTかプライマリーオーディオビデオPRMAV内の副映像SUBPTのいずれか一方が選択され、オーバーレイコントローラーOVLCTRへ入力される。   As the video displayed on the sub-picture plane SBPCPL, either the advanced subtitle ADSBT or the sub-video SUBPT of the primary audio video PRMAV is displayed. That is, the advanced subtitle ADSBT is input to the switch SWITCH after the display screen size and display position are set by the layout manager LOMNG in the advanced subtitle player ASBPL. Also, the sub-picture SUBPT of the primary audio video PRMAV is input from the primary video player PRMVP into the sub-picture decoder SPDEC in the decoder engine DCDEN. After being decoded there, the display screen size and the display position screen size by the scaler SCALER Is set. Thereafter, it is similarly input to the switch SWITCH. In the present embodiment, as shown in FIG. 45, either the advanced subtitle ADSBT or the sub-picture SUBPT in the primary audio video PRMAV is selected by the selection process by the switch SWITCH and input to the overlay controller OVLCTR.

グラフィックプレインGRPHPLについては、アドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャーLOMNGで表示サイズと表示位置が設定された後、直接オーバーレイコントローラーOVLCTRに入力される。   The graphic plane GRPHPL is directly input to the overlay controller OVLCTR after the display size and display position are set by the layout manager LOMNG in the advanced application presentation engine AAPEN.

カーソルプレインCRSRPLに対してはナビゲーションマネージャーNVMNG内のカーソルマネージャーCRSMNGによりカーソルイメージCRSIMGとカーソルの表示位置を示すポジションインフォメーションPOSITIが出力され、オーバーレイコントローラーOVLCTR内でカーソルの画面レイヤーが作成される。以下に各画面レイヤー毎の詳細な説明を行う。   For the cursor plane CRSRPL, the cursor manager CRSMNG in the navigation manager NVMNG outputs the cursor image CRSIMG and position information POSITI indicating the display position of the cursor, and the cursor screen layer is created in the overlay controller OVLCTR. A detailed description for each screen layer is given below.

カーソルプレインCRSRPLは、本実施形態の映像合成モデルにおいては、5画面レイヤー存在する中で最も上側に存在する画面レイヤーを表し、グラフィックレンダリングエンジンGHRNEN内で画面が作成される。カーソルプレインCRSRPLの解像度はグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)の解像度と一致する(図43の説明文章を参照のこと)。前述したように、前記カーソルプレインCRSRPLはグラフィックレンダリングエンジンGHRNEN内のオーバーレイコントローラーOVLCTR内で作成・管理される。ナビゲーションマネージャーNVMNG内に存在するカーソルマネージャーCRSMNGは、カーソルイメージCRSIMGを作成し前記オーバーレイコントローラーOVLCTRへ転送する。また、前記カーソルマネージャーCRSMNGは画面上のカーソル位置を表すポジションインフォメーションPOSITIの情報を管理作成し、前記オーバーレイコントローラーOVLCTRに転送するとともに、ユーザー入力に対応し常に前記カーソルのポジションインフォメーションPOSITIをタイムリーにアップデートし、オーバーレイコントローラーOVLCTRに転送する。デフォルト(初期状態)におけるカーソルイメージCRSIMGとその位置を表すX,Y座標(hotspotXY)は、各アドバンストコンテンツ再生部ADVPLに依存する。本実施形態においてデフォルト(初期状態)におけるカーソル位置(X,Y)は、(0,0)(原点位置)に設定される。前記カーソルイメージCRSIMGとその位置を示すポジションインフォメーションPOSITIはアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGEN(図32参照)からのAPIコマンドによりアップデートされる。本実施形態において、前記カーソルイメージCRSIMGの最大解像度を256×256ピクセル(画素)に設定する。この数値を設定することにより、ある程度表現力のあるカーソルイメージCRSIMGを表現できるとともに、無駄な解像度設定を防ぐことでカーソル表示処理速度を早くすることができる。また、前記カーソルイメージCRSIMGのファイルフォーマットはPMG(8ビットカラー表現)により設定される。また、本実施形態において前記カーソルイメージCRSIMGは、APIコマンドにより完全に画面上に表示される状態かまたは完全に透明で画面上には見えない状態かのいずれかに切替えることができる。カーソルマネージャーCRSMNGから送られるポジションインフォメーションPOSITIに応じて、前記オーバーレイコントローラーOVLCTR内でカーソルプレインCRSRPL上にカーソルイメージCRSIMGが配置される。それとともにオーバーレイコントローラーOVLCTRによりカーソルプレインCRSRPLよりも下側の画面レイヤーの画面に対する半透明の状態を示すアルファーミックスの設定(アルファインフォメーションに基づく透明度の設定)を行うことができる。   The cursor plane CRSRPL represents the uppermost screen layer among the five screen layers in the video composition model of the present embodiment, and a screen is created in the graphic rendering engine GHRNEN. The resolution of the cursor plane CRSRPL matches the resolution of the aperture APTR (graphic area) on the graphic plane GRPHPL (see the explanatory text in FIG. 43). As described above, the cursor plane CRSRPL is created and managed in the overlay controller OVLCTR in the graphic rendering engine GHRNEN. The cursor manager CRSMNG existing in the navigation manager NVMNG creates a cursor image CRSIMG and transfers it to the overlay controller OVLCTR. The cursor manager CRSMNG manages and creates position information POSITI information representing the cursor position on the screen, transfers it to the overlay controller OVLCTR, and constantly updates the cursor position information POSITI in response to user input. And transfer to the overlay controller OVLCTR. The cursor image CRSIMG in the default (initial state) and the X and Y coordinates (hotspotXY) representing the position depend on each advanced content playback unit ADVPL. In the present embodiment, the cursor position (X, Y) in the default (initial state) is set to (0, 0) (origin position). The cursor image CRSIMG and position information POSITI indicating its position are updated by an API command from the programming engine PRGEN (see FIG. 32) in the advanced application manager ADAMNG. In the present embodiment, the maximum resolution of the cursor image CRSIMG is set to 256 × 256 pixels (pixels). By setting this numerical value, it is possible to express a cursor image CRSIMG that has a certain level of expressiveness, and it is possible to increase the cursor display processing speed by preventing unnecessary resolution setting. The file format of the cursor image CRSIMG is set by PMG (8-bit color expression). In the present embodiment, the cursor image CRSIMG can be switched to either a state that is completely displayed on the screen by an API command or a state that is completely transparent and invisible on the screen. In accordance with the position information POSITI sent from the cursor manager CRSMNG, the cursor image CRSIMG is arranged on the cursor plane CRSRPL in the overlay controller OVLCTR. At the same time, the overlay controller OVLCTR can be used to set an alpha mix (transparency setting based on alpha information) that indicates the translucent state of the screen layer below the cursor plane CRSRPL.

本実施形態の映像合成モデルにおいてグラフィックプレインGRPHPLにおいては、グラフィックレンダリングエンジンGHRNEN内で作成する上から2番目の画面レイヤーに相当する。図32に示すナビゲーションマネージャーNVMNG内のアドバンストアプリケーションマネージャーADAMNGからの制御を受けて、図45に示すアドバンストアプリケーションプレゼンテーションエンジンAAPENによりグラフィックプレインGRPHPLの画面が作成される。図32に示すナビゲーションマネージャーNVMNG内のアドバンストアプリケーションマネージャーADAMNGが、図35に示すアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のグラフィックデコーダーGHCDECとフォントレンダリングシステムFRDSTMを動かしてグラフィックプレインGRPHPLの画面の一部を作成する。最終的にはアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のレイアウトマネージャーLOMNGによりグラフィックプレインGRPHPLの合成画面を作成する。前記レイアウトマネージャーLOMNGによりそこから出力される画面(フレーム)の出力ビデオサイズとその表示場所が設定される。前記レイアウトマネージャーLOMNGから出力されるフレームレート(1秒間に変化する画面数)は、例えばメインビデオMANVDやサブビデオSUBVDなどの映像のフレームレートに関わりなく独自に設定することができる。また本実施形態では、アニメーションなどグラフィックイメージの連続としてアニメーションイフェクトを表示することもできる。   In the video synthesis model of the present embodiment, the graphic plane GRPHPL corresponds to the second screen layer from the top created in the graphic rendering engine GHRNEN. Under the control of the advanced application manager ADAMNG in the navigation manager NVMNG shown in FIG. 32, a graphic plane GRPHPL screen is created by the advanced application presentation engine AAPEN shown in FIG. The advanced application manager ADAMNG in the navigation manager NVMNG shown in FIG. 32 creates part of the graphic plane GRPHPL screen by operating the graphic decoder GHCDEC and the font rendering system FRDSTM in the advanced application presentation engine AAPEN shown in FIG. Finally, a graphic plane GRPHPL composite screen is created by the layout manager LOMNG in the advanced application presentation engine AAPEN. The layout manager LOMNG sets the output video size of the screen (frame) output therefrom and the display location thereof. The frame rate (number of screens that change per second) output from the layout manager LOMNG can be set independently regardless of the frame rate of the video such as the main video MANVD and the sub video SUBVD. In the present embodiment, an animation effect can also be displayed as a series of graphic images such as animation.

図35に示すレイアウトマネージャーLOMNGでグラフィックプレインGRPHPL上の画面設定をする時には個々の構成画面に対してアルファーインフォメーション(アルファー値)の条件を設定することはできない。本実施形態においては、グラフィックプレインGRPHPL内の各グラフィックイメージ(個々の構成画面)単位でアルファー値を設定することはできず、グラフィックプレインGRPHPL全体でのアルファー値を設定することができる。従って下の画面に対する透明度(アルファー値)はグラフィックプレインGRPHPL上至るところで一定に設定される。   When setting the screen on the graphic plane GRPHPL with the layout manager LOMNG shown in FIG. 35, the condition of alpha information (alpha value) cannot be set for each component screen. In the present embodiment, an alpha value cannot be set for each graphic image (individual configuration screen) in the graphic plane GRPHPL, and an alpha value for the entire graphic plane GRPHPL can be set. Accordingly, the transparency (alpha value) for the lower screen is set to be constant throughout the graphic plane GRPHPL.

本実施形態における映像合成モデルにおいてサブピクチャープレインSBPCPLは、グラフィックレンダリングエンジンGHRNENで作成される上から3番目の画面レイヤーに対応している。前記サブピクチャープレインSBPCPLは、アドバンストサブタイトルプレーヤーASBPLまたはデコーダーエンジンDCDEN内のサブピクチャーデコーダーSPDECにより作成される(図45参照)。プライマリービデオセットPRMVSは指定された表示フレームサイズを持った副映像SUBPTイメージを含んでいる。前記副映像SUBPTのイメージの表示サイズが指定された場合には、サブピクチャーデコーダーSPDECは前記副映像SUBPTイメージを直接スケーラーSCALERによるサイズ変更をせずに直接グラフィックレンダリングエンジンGHRNENへ転送される。例えば図43の説明で示したように、合成画面の表示サイズがグラフィックプレインGRPHPL上のアパーチャーAPTR(グラフィック領域)のサイズで規定されており、メインビデオプレインMNVDPL上のメインビデオMANVDが合成画面上にフル画面で表示された場合には、メインビデオMANVDの表示サイズは前記アパーチャーAPTR(グラフィック領域)のサイズと一致する。この場合、副映像SUBPTの表示サイズは前記アパーチャーAPTR(グラフィック領域)のサイズにより自動的に副映像SUBPTの表示サイズが決まる。このような場合には、前述したようにサブピクチャーデコーダーSPDECの出力画面(フレーム)がスケーラーSCALERの処理をせずに直接グラフィックレンダリングエンジンGHRNENへ転送される。逆に図43に示すように、メインビデオプレインMAVDPL上の本編31の表示サイズがアパーチャーAPTR(グラフィック領域)のサイズよりも大幅に小さい場合には、対応して副映像SUBPTのフレームサイズも変える必要がある。このように副映像SUBPTイメージの適正な表示サイズが設定されない場合には、サブピクチャーデコーダーSPDECの後ろに存在するスケーラーSCALERが前記アパーチャーAPTR(グラフィック領域)の最適な表示サイズと表示位置が設定され、その後グラフィックレンダリングエンジンGHRLENへ転送される。しかし本実施形態では上記に限らず、前期副映像の表示適正サイズがわからない(存在しない)場合には、前記副映像SUBPTを前記アパーチャーAPTR(グラフィック領域)における左上に詰めて表示することもできる。本実施形態においては、図45に示すようにサブピクチャープレインSBPCPLのグラフィックレンダリングエンジンGHRNENに転送する画面のフレームレートは、ビデオ出力のフレームレートとは関わりなく独自に設定することができる。このように副映像SUBPTやアドバンストサブタイトルADSBT、あるいはアドバンストアプリケーションADAPLを表示する前記サブピクチャープレインSBPCPLやグラフィックプレインGRPHPLのフレームレートをメインビデオプレインMNVDPLやサブビデオプレインSBVDPLのフレームレートと関わりなく独自に設定することで、プレゼンテーションエンジンPRSENの処理の効率化を図ることができる。何故ならメインビデオプレインMNVDPLやサブビデオプレインSBVDPLは1秒間に50ないしは60フィールド変化するが、サブピクチャープレインSBPCPLやグラフィックプレインGRPHPLで表示される画面は比較的画面変化の速度が遅く、例えばグラフィックプレインGRPHPLで表示される画面は10秒間同じ画面が表示されることがある。この時に前記ビデオプレインに合わせて1秒間に50ないしは60フィールドに合わせたフレームレートで画像をAVレンダラーAVRNDに転送する場合にはアドバンストアプリケーションプレゼンテーションエンジンAAPENやアドバンストサブタイトルプレーヤーASBPLの付加が重くなりすぎるため、フレーム転送レートを独自に設定することで両者の負担を大幅に低減することができる。また、アドバンストサブタイトルプレーヤーASBPLは、アドバンストアプリケーションADAPLのサブセットに対応したサブピクチャープレインSBPCPLの画面を提供することができる。前述したように各画面レイヤーを合成した合成画面を作成するオーバーレイコントローラーOVLCTRに転送するサブピクチャープレインSBPCPLは、アドバンストサブタイトルプレーヤーASBPLかサブピクチャーデコーダーSPDECの出力のうち、どちらか一方のみが使われる。本実施形態ではナビゲーションマネージャーNVMNGから転送されるオーバーレイインフォメーションOVLYIに基づき、プレゼンテーションエンジンPRSENから供給されるサブピクチャープレインSBPCPLに表示される画面がグラフィックレンダリングエンジンGHRNEN内のスイッチモジュールSWITCHにより選択される。本実施形態においてサブピクチャープレインSBPCPLに表示される画面も透明度を設定することができ、その下に存在するサブピクチャープレインSBPCPLやメインビデオプレインMNVDPLの画面が透けて見えるように設定することができる。本実施形態ではサブピクチャープレインSBPCPLに対し、透明度を表すアルファー値(アルファーインフォメーション)を設定することができ、サブピクチャープレインSBPCPL内の至るところで同一のアルファー値(アルファーインフォメーション)が設定される。   In the video composition model in this embodiment, the sub-picture plane SBPCPL corresponds to the third screen layer from the top created by the graphic rendering engine GHRNEN. The sub-picture plane SBPCPL is created by the advanced subtitle player ASBPL or the sub-picture decoder SPDEC in the decoder engine DCDEN (see FIG. 45). The primary video set PRMVS includes a sub-picture SUBPT image having a designated display frame size. When the display size of the sub-picture SUBPT image is designated, the sub-picture decoder SPDEC directly transfers the sub-picture SUBPT image to the graphic rendering engine GHRNEN without changing the size by the scaler SCALER. For example, as shown in the explanation of FIG. 43, the display size of the composite screen is defined by the size of the aperture APTR (graphic area) on the graphic plane GRPHPL, and the main video MANVD on the main video plane MNVDPL is displayed on the composite screen. When displayed on the full screen, the display size of the main video MANVD matches the size of the aperture APTR (graphic area). In this case, the display size of the sub-picture SUBPT is automatically determined according to the size of the aperture APTR (graphic area). In such a case, as described above, the output screen (frame) of the sub-picture decoder SPDEC is directly transferred to the graphic rendering engine GHRNEN without being processed by the scaler SCALER. Conversely, as shown in FIG. 43, when the display size of the main video 31 on the main video plane MAVDPL is significantly smaller than the size of the aperture APTR (graphic area), it is necessary to change the frame size of the sub-picture SUBPT accordingly. There is. In this way, when the appropriate display size of the sub-picture SUBPT image is not set, the scaler SCALER existing behind the sub-picture decoder SPDEC is set with the optimum display size and display position of the aperture APTR (graphic area), It is then transferred to the graphic rendering engine GHRLEN. However, the present embodiment is not limited to the above, and when the appropriate display size of the previous sub-picture is not known (does not exist), the sub-picture SUBPT can be displayed in the upper left of the aperture APTR (graphic area). In this embodiment, as shown in FIG. 45, the frame rate of the screen transferred to the graphic rendering engine GHRNEN of the sub-picture plane SBPCPL can be set independently regardless of the frame rate of the video output. In this way, the frame rate of the sub-picture plane SBPCPL or graphic plane GRPHPL that displays the sub-picture SUBPT, advanced subtitle ADSBT, or advanced application ADAPL is independently set regardless of the frame rate of the main video plane MNVDPL or sub-video plane SBVDPL As a result, the processing efficiency of the presentation engine PRSEN can be improved. This is because the main video plane MNVDPL and the sub video plane SBVDPL change by 50 to 60 fields per second, but the screen displayed by the sub picture plane SBPCPL or graphic plane GRPHPL is relatively slow, for example, the graphic plane GRPHPL The same screen may be displayed for 10 seconds. At this time, when the image is transferred to the AV renderer AVRND at a frame rate adjusted to 50 or 60 fields per second according to the video plane, the addition of the advanced application presentation engine AAPEN and the advanced subtitle player ASBPL becomes too heavy. By uniquely setting the frame transfer rate, the burden on both can be greatly reduced. Further, the advanced subtitle player ASBPL can provide a sub-picture plane SBPCPL screen corresponding to a subset of the advanced application ADAPL. As described above, only one of the outputs of the advanced subtitle player ASBPL or the sub-picture decoder SPDEC is used for the sub-picture plane SBPCPL to be transferred to the overlay controller OVLCTR that creates a composite screen by combining the screen layers. In this embodiment, based on the overlay information OVLYI transferred from the navigation manager NVMNG, the screen displayed on the sub-picture plane SBPCPL supplied from the presentation engine PRSEN is selected by the switch module SWITCH in the graphic rendering engine GHRNEN. In this embodiment, the transparency of the screen displayed on the sub-picture plane SBPCPL can also be set, and the sub-picture plane SBPCPL and the main video plane MNVDPL existing below can be set to show through. In the present embodiment, an alpha value (alpha information) representing transparency can be set for the sub-picture plane SBPCPL, and the same alpha value (alpha information) is set throughout the sub-picture plane SBPCPL.

本実施形態の映像合成モデルについて、サブビデオプレインSBVDPLはグラフィックレンダリングエンジンGHRNENから合成される上から4番目の画面レイヤーに相当する(図43参照)。前記サブビデオプレインSBVDPLは、デコーダーエンジンDCDEN内のサブビデオデコーダーSVDEC内でデコードされた映像が表示される。ナビゲーションマネージャーNVMNGから送られるスケールインフォメーションSCALEIとポジションインフォメーションPOSITIに基づき、サブビデオデコーダーSVDECの出力側に存在するスケーラーSCALERによりサブビデオプレインSBVDPL上の副映像SUBPT画面のサイズと表示位置が設定され、最終的な表示ビデオサイズとしてスケーラーSCALERから出力される(図45参照)。デフォルト(初期値)において、前記スケールインフォメーションSCALEIで示されるスケーリングレーシオは1(縮小されずアパーチャーAPTR(グラフィック領域)サイズ全体に表示される)と設定される。また、デフォルト(初期値)においては前記ポジションインフォメーションPOSITIの情報としてはX方向のポジションは“0”、Y方向のポジションも“0”(アパーチャーAPTR(グラフィック領域)の原点位置)に設定される。また、アルファー値は100%透過するように設定される。また、本実施形態においてはそれに限らずアルファー値としては、100%表示される(透明度0%)と設定することもできる。前記のアルファー値及びスケールインフォメーションSCALEI、ポジションインフォメーションPOSITIの値は、APIコマンドにより変更することができる。もし、新しいタイトルを表示する場合には、前記の値はデフォルト値(初期値)に設定される。本実施形態において、サブビデオプレインSBVDPLの出力フレームレートはアドバンストコンテンツ再生部ADVPLの映像出力のフレームレート(メインビデオプレインMNVDPLにおけるフレームレート)とは関係なく独自に設定することができる。それにより、例えばサブビデオプレインSBVDPLのフレームレートを落とすことでネットワークサーバーNTSRVから転送される時のローディング時の連続性を保証することができる。前記サブビデオSUBVDストリームにおいてクロマインフォメーションCRMIが設定された場合には、グラフィックレンダリングエンジンGHRNEN内においてクロマイフェクトCRMEFTによりサブビデオSUBVD内の映像オブジェクトの輪郭抽出をすることができる。映像において例えば青い背景上に移った人の映像があった場合、クロマキーの処理をすることにより青色部分を透明にし、青以外の色で構成された人物などを不透明にし、青色部分に別の画面を重ねる処理が可能となる。例えば、図43の各画面レイヤー説明図を用いた例の場合、例えばメインビデオプレインMNVDPLの画面をアパーチャーAPTR(グラフィック領域)のサイズにフル画面表示し、その1部に重ねてサブビデオプレインSBVDPL上の画面を重ねて表示した場合を考える。この時、サブビデオプレインSBVDPL上の画面が青色背景上に特定の人物が移されている映像があった場合、クロマカラーを青色に設定して、青色の部分だけを透明とすることによりサブビデオプレインSBVDPL上の人物のみを後ろ側のメインビデオプレインMNVDPL上の映像と重ねて表示することができる。このようにクロマキー(クロマイフェクトCRMEFT)の技術を利用することにより、サブビデオプレインSBVDPL上の特定オブジェクトに対し輪郭抽出し、背景色を透明にして後ろ側のメインビデオプレインMNVDPLと重ねる処理などができる。このように本実施形態においては、セカンダリービデオプレーヤーSCDVPまたはプライマリービデオプレーヤーPRMVPに対応したサブビデオプレーヤーモジュールに対し、前記クロマインフォメーションCRMIを適用することができる。前記クロマイフェクトCRMEFTからの出力映像に対しては、2つのアルファー値(アルファーインフォメーション)が設定される。すなわち、一方のアルファー値は100%可視の状態であり、裏側に存在するサブビデオプレインSBVDPLの映像は見えない。前記の例では青色の背景の中に存在する青とは異なる色を持ったオブジェクト(人物)などがそれに対応する。また、もう一方のアルファー値は100%透過するように設定され、前記の例では青色の背景部分がそれに対応する。その部分は100%透過となり、下側に存在するメインビデオプレインMNVDPLの画面が透けて見える。本実施形態においてはそれに限らずアルファー値として100%と0%の中間の値を設定することができる。最も下側に存在するメインビデオプレインMNVDPLと重なるサブビデオプレインSBVDPL内の映像の各位置のアルファー値(アルファーインフォメーション)の中間の値は、ナビゲーションマネージャーNVMNGから転送されるオーバーレイインフォメーションOVLYIにより設定され、その値に基づきグラフィックレンダリングエンジンGHRNEN内のオーバーレイコントローラーOVLCTRにより設定される。   In the video composition model of this embodiment, the sub video plane SBVDPL corresponds to the fourth screen layer from the top synthesized from the graphic rendering engine GHRNEN (see FIG. 43). The sub video plane SBVDPL displays the video decoded in the sub video decoder SVDEC in the decoder engine DCDEN. Based on the scale information SCALEI and position information POSITI sent from the navigation manager NVMNG, the scaler SCALER present on the output side of the sub video decoder SVDEC sets the size and display position of the sub video SUBPT screen on the sub video plane SBVDPL. The display video size is output from the scaler SCALER (see FIG. 45). In the default (initial value), the scaling ratio indicated by the scale information SCALEI is set to 1 (not reduced and displayed in the entire aperture APTR (graphic area) size). In the default (initial value), the position information POSITI information is set to “0” for the position in the X direction and “0” for the position in the Y direction (the origin position of the aperture APTR (graphic area)). The alpha value is set to be 100% transparent. In the present embodiment, the alpha value is not limited to this, and the alpha value can be set to 100% (transparency 0%). The alpha value, scale information SCALEI, and position information POSITI values can be changed by an API command. If a new title is displayed, the value is set to a default value (initial value). In this embodiment, the output frame rate of the sub video plane SBVDPL can be set independently regardless of the video output frame rate of the advanced content playback unit ADVPL (the frame rate in the main video plane MNVDPL). Thereby, for example, by reducing the frame rate of the sub video plane SBVDPL, it is possible to guarantee continuity at the time of loading when transferred from the network server NTSRV. When the chroma information CRMI is set in the sub video SUBVD stream, the contour of the video object in the sub video SUBVD can be extracted by the chromifect CRMEFT in the graphic rendering engine GHRNEN. For example, if there is a video of a person who has moved on a blue background in the video, the blue part is made transparent by processing the chroma key, the person composed of colors other than blue is made opaque, and another screen is displayed in the blue part. Can be processed. For example, in the example using each screen layer explanatory diagram of FIG. 43, for example, the screen of the main video plane MNVDPL is displayed in full screen in the size of the aperture APTR (graphic area), and overlapped on a part of it on the sub video plane SBVDPL Let's consider the case where the screens are displayed in an overlapping manner. At this time, if the screen on the sub video plane SBVDPL has a video with a specific person on a blue background, the chroma color is set to blue and only the blue part is made transparent. Only the person on the plain SBVDPL can be displayed superimposed on the video on the main video plane MNVDPL on the back side. In this way, by using the chroma key (chromifect CRMEFT) technology, it is possible to extract a contour from a specific object on the sub video plane SBVDPL, make the background color transparent, and overlay the main video plane MNVDPL on the back side. . Thus, in the present embodiment, the chroma information CRMI can be applied to the sub video player module corresponding to the secondary video player SCDVP or the primary video player PRMVP. Two alpha values (alpha information) are set for the output video from the chromifect CRMEFT. That is, one alpha value is 100% visible, and the video of the sub video plane SBVDPL existing on the back side cannot be seen. In the above example, an object (person) having a color different from blue existing in a blue background corresponds to this. The other alpha value is set to be 100% transparent, and the blue background corresponds to that in the above example. That part is 100% transparent, and the screen of the main video plane MNVDPL that exists below can be seen through. In the present embodiment, the present invention is not limited thereto, and an intermediate value between 100% and 0% can be set as the alpha value. The intermediate value of the alpha value (alpha information) of each position of the video in the sub video plane SBVDPL that overlaps with the main video plane MNVDPL existing at the bottom is set by the overlay information OVLYI transferred from the navigation manager NVMNG. Based on the value, set by overlay controller OVLCTR in graphic rendering engine GHRNEN.

本実施形態の映像合成モデルにおいて、メインビデオプレインMNVDPLはグラフィックレンダリングエンジンGHRNEN内で合成される最も下側に存在する画面レイヤーに対応する。前記メインビデオプレインMNVDPLの映像は、デコーダーエンジンDCDEN内のメインビデオデコーダーMVDECによりデコードされた映像で構成される。ナビゲーションマネージャーNVMNGから転送されるスケールインフォメーションSCALEIとポジションインフォメーションPOSITIに基づき、メインビデオデコーダーMVDECの出力段に配置されたスケーラーSCALERにより、メインビデオプレインMNVDPL上の表示画面サイズと表示位置が設定される。メインビデオプレインMNVDPL上のメインビデオ画面のデフォルト(初期値)におけるサイズと表示場所はアパーチャーAPTR(グラフィック領域)のサイズと一致する。本実施形態におけるアパーチャーAPTR(グラフィック領域)のサイズ情報は、図25に示すようにプレイリストPLLSTファイル内の構造情報CONFGI内に規定され、画面のアスペクト比が元の状態で保持された形で指定される。例えばメインビデオプレインMNVDPL上に表示される映像のアスペクト比が4:3であり、グラフィックプレインGRPHPL上で規定されるアパーチャーAPTR(グラフィック領域)のアスペクト比が16:9で指定された場合、メインビデオプレインMNVDPLの映像の前記アパーチャーAPTR(グラフィック領域)内での表示位置は、表示画面の高さが前記アパーチャーAPTR(グラフィック領域)と一致し、画面の横方向においてはアパーチャーAPTR(グラフィック領域)の中央位置にフル画面に対して幅の狭い画面が表示される。前記プレイリストファイルPLLST内の構造情報CONFGIで指定されたビデオの表現色とメインビデオプレインMNVDPLで設定された表現色が異なった場合には、前記メインビデオプレインMNBDPLにおけるデフォルト(初期値)における表示色条件を前記構造情報CONFGIに変換処理を行わず、元々のデフォルト時の色を使用する。メインビデオプレインMNVDPL内における映像の表示サイズ、表示位置、および表示色、アスペクト比などの値はAPIコマンドにより変更することが可能である。プレイリストPLLST内の新たな別のタイトルに移動する場合には、移動前において前記映像サイズ、映像表示位置、表示色やアスペクト比などの情報はデフォルト(初期値)に設定される。その後、次のタイトルの再生開始時に前記映像サイズ、表示位置、表現色とアスペクトレシオなどの値がプレイリストPLLSTで設定された指定値に変更される。   In the video composition model of the present embodiment, the main video plane MNVDPL corresponds to the lowermost screen layer synthesized in the graphic rendering engine GHRNEN. The video of the main video plane MNVDPL is composed of video decoded by the main video decoder MVDEC in the decoder engine DCDEN. Based on the scale information SCALEI and position information POSITI transferred from the navigation manager NVMNG, the display screen size and display position on the main video plane MNVDPL are set by the scaler SCALER arranged at the output stage of the main video decoder MVDEC. The default size (initial value) of the main video screen on the main video plane MNVDPL and the display location match the size of the aperture APTR (graphic area). The size information of the aperture APTR (graphic area) in this embodiment is specified in the structure information CONFGI in the playlist PLLST file as shown in FIG. 25, and is specified in the form in which the screen aspect ratio is retained in the original state. Is done. For example, when the aspect ratio of the video displayed on the main video plane MNVDPL is 4: 3 and the aspect ratio of the aperture APTR (graphic area) defined on the graphic plane GRPHPL is specified as 16: 9, the main video is displayed. The display position of the plain MNVDPL image in the aperture APTR (graphic area) is the same as the aperture APTR (graphic area) in the horizontal direction of the screen. A screen narrower than the full screen is displayed at the position. When the video expression color specified by the structure information CONFGI in the playlist file PLLST is different from the expression color set by the main video plane MNVDPL, the display color in the default (initial value) of the main video plane MNBDPL The original default color is used without converting the condition into the structure information CONFGI. Values such as the video display size, display position, display color, and aspect ratio in the main video plane MNVDPL can be changed by an API command. When moving to another new title in the playlist PLLST, information such as the video size, video display position, display color, and aspect ratio is set to default (initial value) before the movement. Thereafter, when the reproduction of the next title is started, values such as the video size, display position, expression color and aspect ratio are changed to designated values set in the playlist PLLST.

本実施形態において情報記録再生装置1内にアドバンストコンテンツ再生部ADVPLが存在する(図15参照)が、図16に示すように前記アドバンストコンテンツ再生部ADVPL内にAVレンダラーAVRNDが存在し、図42に示すように前記AVレンダラーAVRND内にオーディオミキシングエンジンADMXENが存在する。前記オーディオミキシングエンジンADMXENとその前段に存在するプレゼンテーションエンジンPRSEN間の関係を示す音声ミキシングモデルを図46に示す。   In the present embodiment, the advanced content playback unit ADVPL exists in the information recording / playback apparatus 1 (see FIG. 15), but the AV renderer AVRND exists in the advanced content playback unit ADVPL as shown in FIG. As shown, an audio mixing engine ADMXEN exists in the AV renderer AVRND. FIG. 46 shows an audio mixing model showing the relationship between the audio mixing engine ADMXEN and the presentation engine PRSEN existing in the preceding stage.

本実施形態において、オーディオミキシングエンジンADMXENに入力されるオーディオストリームは、イフェクトオーディオEFTADとサブオーディオSUBADとメインオーディオMANADの3種類のオーディオストリーム(図12参照)が存在する。前記3種類のオーディオストリームにおいて、イフェクトオーディオEFTADは図46におけるアドバンストアプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECの出力として与えられる。また、前記サブオーディオストリームSUBADはデコーダーエンジンDCDEN内のサブオーディオデコーダーSADECの出力として与えられ、メインオーディオストリームMANADは前記デコーダーエンジンDCDEN内のメインオーディオデコーダーMADECの出力として与えられる。本実施形態において、前記各種オーディオストリーム間のサンプル周波数は一致している必要はなく、それぞれのオーディオストリーム毎に異なるサンプリング周波数(サンプルレート)を持つことが許容される。これら3種類の異なるサンプリング周波数を持ったオーディオストリームを合成するにあたって、オーディオミキシングエンジンADMXEN内にはそれぞれのオーディオストリームに対応したサンプリングレートコンバーターSPRTCVが存在している。すなわち、前記サンプリングレートコンバーターSPRTCVは各種オーディオデコーダー(SNDDEC、SADEC、MADEC)の出力時のサンプル周波数(サンプリングレート)を最終的な音声出力のサンプリング周波数(サンプルレート)に統一する働きを持っている。本実施形態において図46に示すように、ナビゲーションマネージャーNVMNGからミキシングレベルインフォメーションMXLVIの情報がオーディオミキシングエンジンADMXEN内のサウンドミキサーSNDMIXへ向けて転送され、その転送された情報に基づき前記サウンドミキサーSNDMIX内で前記3種類のオーディオストリームの合成時のミキシングレベルが設定される。その後の最終的なオーディオ出力AOUTの出力ダイナミックレンジは各種アドバンストコンテンツ再生部ADVPLによりそれぞれ独自に設定が可能となる。   In the present embodiment, the audio stream input to the audio mixing engine ADMXEN includes three types of audio streams (see FIG. 12): effect audio EFTAD, sub audio SUBAD, and main audio MANAD. In the three types of audio streams, the effect audio EFTAD is given as an output of the sound decoder SNDDEC in the advanced application presentation engine AAPEN in FIG. The sub audio stream SUBAD is provided as an output of the sub audio decoder SADEC in the decoder engine DCDEN, and the main audio stream MANAD is provided as an output of the main audio decoder MADEC in the decoder engine DCDEN. In the present embodiment, the sample frequencies between the various audio streams do not need to match, and it is allowed to have a different sampling frequency (sample rate) for each audio stream. In synthesizing audio streams having these three different sampling frequencies, the audio mixing engine ADMXEN includes sampling rate converters SPRTCV corresponding to the respective audio streams. That is, the sampling rate converter SPRTCV has a function of unifying the sampling frequency (sampling rate) at the time of output of various audio decoders (SNDDEC, SADEC, MADEC) to the sampling frequency (sampling rate) of the final audio output. In this embodiment, as shown in FIG. 46, the information of the mixing level information MXLVI is transferred from the navigation manager NVMNG to the sound mixer SNDMIX in the audio mixing engine ADMXEN, and in the sound mixer SNDMIX based on the transferred information. A mixing level at the time of synthesizing the three types of audio streams is set. Thereafter, the output dynamic range of the final audio output AOUT can be set independently by various advanced content playback units ADVPL.

本実施形態の音声ミキシングモデルにおける3種類のオーディオストリームの対応方法及び内容について以下に説明を行う。   A method and content for handling three types of audio streams in the audio mixing model of the present embodiment will be described below.

イフェクトオーディオストリームEFTAD(図12参照)は、基本的にユーザーがグラフィカルボタンをクリックした時に使われるオーディオストリームである。図20を用いて使用例を説明する。図20に示すように、アドバンストアプリケーションADAPLが画面上に表示され、その中にヘルプアイコン33が表示されているが、例えばユーザーがヘルプアイコン33をクリック(指定)した時にユーザーに対してヘルプアイコン33をクリックしたことを示す一つの手段として、ヘルプアイコン33を押した直後に特定の音声が出力され、ユーザーにヘルプアイコン33をクリックしたことを明示することが可能となる。このようにクリックしたことを知らせる効果音が前記イフェクトオーディオEFTADに対応する。本実施形態において前記イフェクトオーディオEFTADはシングルチャンネル(モノラル)又はステレオチャンネル(2チャンネル)のWAVフォーマットをサポートしている。本実施形態においてナビゲーションマネージャーNVMNGから送られるコントロールインフォメーションCTRLIの情報内容に応じて、アドバンストアプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECでイフェクトオーディオストリームEFTADを発生した後、オーディオミキシングエンジンADMXEN内に転送される。また、このイフェクトオーディオストリームEFTADの音源はファイルキャッシュFLCCH内にWAVファイルとして事前に保存されており、アプリケーションプレゼンテーションエンジンAAPEN内のサウンドデコーダーSNDDECが前記WAVファイルを読取り、リニアPCMの形に変換し、オーディオミキシングエンジンADMXENへ転送する。本実施形態において、イフェクトオーディオEFTADは2以上のストリームを同時に表示することはできない。本実施形態において例えば1個のイフェクトオーディオストリームEFTADを表示している間に次のイフェクトオーディオストリームEFTADの表示出力を要求された場合、次に指定されたイフェクトオーディオEFTADストリームが優先されて出力される。図20を用い、具体的な例として説明を行うと例えばユーザーがFFボタン38を押していた場合を考える。イフェクトボタン38を押した時にはユーザーに表示するためにそれに対応したイフェクトオーディオEFTADが例えば数秒間鳴り続ける場合を考える。ユーザーがFFボタン38を押した直後にイフェクトオーディオEFTADが鳴り終わる前にプレイボタン35を押した場合、FFボタン38のイフェクトオーディオEFTADが鳴り終らない段階でプレイボタン35を押したことを示すイフェクトオーディオEFTADが変わって出力されるようになる。そうすることによって、ユーザーが画面上に表示されたアドバンストアプリケーションADAPLの複数のイメージオブジェクトを続けて押した時にユーザーに対するクイックなレスポンスを表示することができユーザーの使いやすさを大幅に向上させることができる。   The effect audio stream EFTAD (see FIG. 12) is basically an audio stream used when the user clicks a graphical button. An example of use will be described with reference to FIG. As shown in FIG. 20, the advanced application ADAPL is displayed on the screen, and a help icon 33 is displayed therein. For example, when the user clicks (specifies) the help icon 33, the help icon 33 is displayed to the user. As one means for indicating that the user has clicked, a specific sound is output immediately after the help icon 33 is pressed, and it is possible to clearly indicate to the user that the help icon 33 has been clicked. The sound effect informing that the click has been made corresponds to the effect audio EFTAD. In this embodiment, the effect audio EFTAD supports a single channel (monaural) or stereo channel (two channels) WAV format. In the present embodiment, the effect audio stream EFTAD is generated by the sound decoder SNDDEC in the advanced application presentation engine AAPEN in accordance with the information content of the control information CTRLI sent from the navigation manager NVMNG, and then transferred to the audio mixing engine ADMXEN. The sound source of this effect audio stream EFTAD is stored in advance as a WAV file in the file cache FLCCH, and the sound decoder SNDDEC in the application presentation engine AAPEN reads the WAV file, converts it into a linear PCM form, and audio Transfer to mixing engine ADMXEN. In this embodiment, the effect audio EFTAD cannot display two or more streams simultaneously. In this embodiment, for example, when the display output of the next effect audio stream EFTAD is requested while one effect audio stream EFTAD is being displayed, the next designated effect audio EFTAD stream is preferentially output. . A specific example will be described with reference to FIG. 20. For example, consider a case where the user has pressed the FF button 38. Consider a case where an effect audio EFTAD corresponding to the effect button 38 continues to sound for several seconds in order to be displayed to the user when the effect button 38 is pressed. If the user presses the play button 35 immediately after pressing the FF button 38 and before the effect audio EFTAD ends, the effect audio indicating that the play button 35 has been pressed before the effect audio EFTAD of the FF button 38 ends. EFTAD is changed and output. By doing so, a quick response to the user can be displayed when the user continuously presses multiple image objects of the advanced application ADAPL displayed on the screen, which can greatly improve the user's usability. it can.

本実施形態においてサブオーディオストリームSUBADは、セカンダリーオーディオビデオSCDAVにおけるサブオーディオストリームSUBADとプライマリーオーディオビデオPRMAVにおけるサブオーディオストリームSUBADの2つのサブオーディオストリームSUBADをサポートする。   In the present embodiment, the sub audio stream SUBAD supports two sub audio streams SUBAD, that is, the sub audio stream SUBAD in the secondary audio video SCDAV and the sub audio stream SUBAD in the primary audio video PRMAV.

セカンダリーオーディオビデオSCDAVは、タイトルタイムラインTMLEに対して同期して表示することも、非同期な形で表示することもできる。もし、前記セカンダリーオーディオビデオSCDAVがサブビデオSUBVDとサブオーディオSUBADの両方を含む場合には、セカンダリーオーディオビデオSCDAVがタイトルタイムラインTMLEに同期していようがいまいが、前記サブビデオSUBVDと前記サブオーディオSUBADは互いに同期していなければならない。プライマリーオーディオビデオPRMAVにおけるサブオーディオSUBADに対してはタイトルタイムラインTMLEと同期していなければならない。また、本実施形態においてはサブオーディオストリームSUBADのエレメンタリーストリーム内のメタデーター制御情報も前記サブオーディオデコーダーSADECで処理される。   The secondary audio video SCDAV can be displayed synchronously or asynchronously with respect to the title timeline TMLE. If the secondary audio video SCDAV includes both the sub video SUBVD and the sub audio SUBAD, the secondary audio video SCDAV is synchronized with the title timeline TMLE regardless of whether the sub video SUBVD and the sub audio SUBAD are synchronized. Must be synchronized with each other. The sub audio SUBAD in the primary audio video PRMAV must be synchronized with the title timeline TMLE. In this embodiment, metadata control information in the elementary stream of the sub audio stream SUBAD is also processed by the sub audio decoder SADEC.

本実施形態においてメインオーディオストリームMANADは、サブスティテュートオーディオビデオSBTAV内のメインオーディオビデオMANAD、サブスティテュートオーディオ内SBTADのメインオーディオストリームMANADとプライマリーオーディオビデオPRMAV内のメインオーディオストリームMANADの3種類のメインオーディオストリームMANADが存在する。前記各異なる再生表示オブジェクト内に含まれる全てのメインオーディオストリームMANADは、タイトルタイムラインTMLEに同期していなければならない。   In this embodiment, the main audio stream MANAD has three main audio streams: a main audio video MANAD in the substitute audio video SBTAV, a main audio stream MANAD in the SBTAD in substitute audio, and a main audio stream MANAD in the primary audio video PRMAV. MANAD exists. All main audio streams MANAD included in the different playback / display objects must be synchronized with the title timeline TMLE.

本実施形態におけるネットワークサーバーNTSRVとパーシステントストレージPRSTRメモリからのデータ供給モデルを図47に示す。   FIG. 47 shows a data supply model from the network server NTSRV and persistent storage PRSTR memory in this embodiment.

本実施形態においてはパーシステントストレージPRSTR内にアドバンストコンテンツファイルADVCTを保存することができる。また、ネットワークサーバーNTSRV内にはプライマリービデオセットPRMVSを除くアドバンストコンテンツADVCTを保存しておくことができる。本実施形態において、図47のデータアクセスマネージャーDAMNG内のネットワークマネージャーNTMNGとパーシステントストレージマネージャーPRMNGは、前記アドバンストコンテンツADVCTに関する各種ファイルへのアクセス処理を行う。更に前記ネットワークマネージャーNTMNGは、プロトコルレベルでのアクセス機能を持っている。ネットワークサーバーNTSRVやパーシステントストレージPRSTRからネットワークマネージャーNTMNG、パーシステントストレージマネージャーPRMNGを介して、アドバンストアプリケーションADAPLに関するアドバンストストリームファイルを直接入手する時の制御をナビゲーションマネージャーNVMNG内のファイルキャッシュマネージャーFLCMNGが行う。前記パーサーPARSERはアドバンストコンテンツ再生部ADVPLの起動時において、プレイリストファイルPLLSTの中身を直接読取ることはできる。前記プレイリストファイルPLLSTは、情報記憶媒体DISCに入っていることが前提とされるが、本実施形態においてそれに限らず前記プレイリストファイルPLLSTがパーシステントストレージPRSTRやネットワークサーバーNTSRVなどに保存され、そこから直接プレイリストファイルPLLSTを読取ることも可能である。本実施形態においてはアドバンストナビゲーションファイル(図13参照)に示すアドバンストナビゲーションディレクトリADVNVの下に存在し、ネットワークサーバーNTSRVやパーシステントストレージPRSTRから得られるマニュフェストファイルMNFST、マークアップファイルMRKUPおよびスクリプトファイルSCRPTなどのファイルをナビゲーションマネージャーNVMNG内のパーサーPARSERが直接再生することはできない。   In the present embodiment, the advanced content file ADVCT can be stored in the persistent storage PRSTR. In addition, advanced content ADVCT excluding the primary video set PRMVS can be stored in the network server NTSRV. In the present embodiment, the network manager NTMNG and persistent storage manager PRMNG in the data access manager DAMNG of FIG. 47 perform access processing to various files related to the advanced content ADVCT. Further, the network manager NTMNG has an access function at the protocol level. The file cache manager FLCMNG in the navigation manager NVMNG performs control when the advanced stream file related to the advanced application ADAPL is directly obtained from the network server NTSRV or the persistent storage PRSTR via the network manager NTMNG or persistent storage manager PRMNG. The parser PARSER can directly read the contents of the playlist file PLLST when the advanced content playback unit ADVPL is started. The playlist file PLLST is assumed to be stored in the information storage medium DISC, but in the present embodiment, the playlist file PLLST is stored in the persistent storage PRSTR, the network server NTSRV, etc. It is also possible to directly read the playlist file PLLST. In this embodiment, it exists under the advanced navigation directory ADVNV shown in the advanced navigation file (see FIG. 13), such as the manifest file MNFST, the markup file MRKUP, and the script file SCRPT obtained from the network server NTSRV and persistent storage PRSTR. The file cannot be played directly by the parser PARSER in the navigation manager NVMNG.

つまり、本実施形態においてはアドバンストナビゲーションADVNV (内のマニュフェストファイルMNFST、マークアップファイルMRKUPおよびスクリプトファイルSCRPTなどのファイル)をパーサーPARSERが再生する場合には事前にファイルキャッシュFLCCH内に1度記録され、その後ファイルキャッシュFLCCHから前記アドバンストナビゲーションADVNVを前記パーサーPARSERが再生することを前提としている。プレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENが使用するアドバンストエレメントADVEL(図13に示す静止画ファイルIMAGE、イフェクトオーディオファイルEFTAD、フォントファイルFONT及びその他のファイルOTHERなどのファイル)は、事前にファイルキャッシュFLCCHに保存されていることを前提としている。すなわち前記アドバンストエレメントADVELは、事前にネットワークサーバーNTSRVやパーシステントストレージマネージャーPRMNGからアドバンストコンテンツADVCTをアクセスマネージャーDAMNGに介してアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に事前保存し、アドバンストアプリケーションプレゼンテーションエンジンAAPENは前記ファイルキャッシュFLCCH内に保存されたアドバンストエレメントADVELを読取る。またプレゼンテーションエンジンPRSEN内にあるアドバンストアプリケーションプレゼンテーションエンジンAAPENは、ネットワークサーバーNTSRVやパーシステントストレージPRSTR内にある各種ファイルをファイルキャッシュFLCCHにコピーする制御を行う。前記アドバンストアプリケーションプレゼンテーションエンジンAAPENはナビゲーションマネージャーNVMNG内のファイルキャッシュマネージャーFLCMNGを動かして、ファイルキャッシュFLCCH内に必要なファイル(や必要な情報の中で足りないファイル)を保存させる。それに応じファイルキャッシュマネージャーFLCMNGは、ファイルキャッシュFLCCH内に保存されているリストを表すファイルキャッシュテーブルの内容を確認し、アドバンストアプリケーションプレゼンテーションエンジンAAPENから要求されたファイルが前記ファイルキャッシュFLCCH内に一時保存されているかどうかの確認を行う。本実施形態において、前記説明したようにプレゼンテーションエンジンPRSEN内のアドバンストアプリケーションプレゼンテーションエンジンAAPENがナビゲーションマネージャーNVMNG内のファイルキャッシュマネージャーFLCMNGを動かして必要なアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に事前保存するように説明を行った。しかし、本実施形態はそれに限らず例えばナビゲーションマネージャーNVMNG内のプレイリストマネージャーPLMNGがプレイリストPLLST内のリソースインフォメーションRESRCIの内容を解読し、その結果をパーサーPASERに報告して、パーサーPARSERが前記リソースインフォメーションRESRCIに基づきファイルキャッシュマネージャーFLCMNGを動かして事前に必要なアドバンストコンテンツADVCTをファイルキャッシュFLCCH内に保存することもできる。その結果、ファイルキャッシュFLCCH内に必要なファイルが全て一時保存されている場合にはファイルキャッシュマネージャーFLCMNGは、必要なファイルデーターをファイルキャッシュFLCCHから直接アドバンストアプリケーションプレゼンテーションエンジンAAPENに転送処理を行う。また逆に前記ファイルキャッシュFLCCH内に必要な全てのファイルが存在していない場合には、ファイルキャッシュマネージャーFLCMNGは元々あった場所(ネットワークサーバーNTSRVまたはパーシステントストレージPRSTR内)から必要なファイルを読取り、前記ファイルキャッシュFLCCHに転送する。その後、必要なファイルデーターを前記アドバンストアプリケーションプレゼンテーションエンジンAAPENへ転送する。セカンダリービデオプレーヤーSCDVPは、例えばセカンダリービデオセットのタイムマップファイルSTMAP(図13参照)やセカンダリーエンハンストビデオオブジェクトファイルS-EVOBのセカンダリービデオセットファイルSCDVSをネットワークサーバーNTSRVやパーシステントストレージPRSTRからネットワークマネージャーNTMNGやパーシステントストレージマネージャーPRMNGを介してファイルキャッシュFLCCHへ転送させる。ネットワークサーバーNTSRVから読み取ったセカンダリーエンハンストビデオオブジェクトS-EVOBデータは、一時的にストリーミングバッファー内に保存される。その後ストリーミングバッファーSTRBUFから前記保存したセカンダリーエンハンストビデオオブジェクトS-EVOBをセカンダリービデオプレーヤーSCDVP内のセカンダリービデオプレイバックエンジンSVPBENが再生する。また、ストリーミングバッファーSTRBUF内に保存されたセカンダリーエンハンストビデオオブジェクトS-EVOBの一部はセカンダリービデオプレーヤーSCDVP内のデマルチプレクサDEMUX内に転送され、デマルチプレクス処理される。   That is, in this embodiment, when the parser PARSER reproduces the advanced navigation ADVNV (the files such as the manifest file MNFST, the markup file MRKUP, and the script file SCRPT), it is recorded once in the file cache FLCCH in advance. Thereafter, it is assumed that the parser PARSER reproduces the advanced navigation ADVNV from the file cache FLCCH. Advanced element ADVEL (files such as still image file IMAGE, effect audio file EFTAD, font file FONT, and other file OTHER shown in FIG. 13) used by advanced application presentation engine AAPEN in presentation engine PRSEN is file cache FLCCH in advance. It is assumed that it is stored in. That is, the advanced element ADVEL pre-stores the advanced content ADVCT from the network server NTSRV or persistent storage manager PRMNG via the access manager DAMNG in advance in the file cache FLCCH, and the advanced application presentation engine AAPEN stores the file The advanced element ADVEL stored in the cache FLCCH is read. The advanced application presentation engine AAPEN in the presentation engine PRSEN controls to copy various files in the network server NTSRV and persistent storage PRSTR to the file cache FLCCH. The advanced application presentation engine AAPEN moves the file cache manager FLCMNG in the navigation manager NVMNG to store necessary files (or files that are missing from the necessary information) in the file cache FLCCH. In response, the file cache manager FLCMNG checks the contents of the file cache table representing the list stored in the file cache FLCCH, and the file requested from the advanced application presentation engine AAPEN is temporarily stored in the file cache FLCCH. Check if it is. In the present embodiment, as described above, the advanced application presentation engine AAPEN in the presentation engine PRSEN moves the file cache manager FLCMNG in the navigation manager NVMNG to pre-store necessary advanced content ADVCT in the file cache FLCCH. Went. However, this embodiment is not limited thereto, for example, the playlist manager PLMNG in the navigation manager NVMNG decodes the contents of the resource information RESRCI in the playlist PLLST, reports the result to the parser PASER, and the parser PARSER The advanced content ADVCT required in advance can be stored in the file cache FLCCH by operating the file cache manager FLCMNG based on RESRCI. As a result, when all the necessary files are temporarily stored in the file cache FLCCH, the file cache manager FLCMNG performs a transfer process of the necessary file data directly from the file cache FLCCH to the advanced application presentation engine AAPEN. Conversely, if all the necessary files do not exist in the file cache FLCCH, the file cache manager FLCMNG reads the necessary files from the original location (in the network server NTSRV or persistent storage PRSTR), Transfer to the file cache FLCCH. Thereafter, necessary file data is transferred to the advanced application presentation engine AAPEN. The secondary video player SCDVP, for example, converts the time map file STMAP (see FIG. 13) of the secondary video set and the secondary video set file SCDVS of the secondary enhanced video object file S-EVOB from the network server NTSRV or persistent storage PRSTR to the network manager NTMNG or persistent storage. The file is transferred to the file cache FLCCH via the stent storage manager PRMNG. Secondary enhanced video object S-EVOB data read from the network server NTSRV is temporarily stored in the streaming buffer. Thereafter, the stored secondary enhanced video object S-EVOB is reproduced from the streaming buffer STRBUF by the secondary video playback engine SVPBEN in the secondary video player SCDVP. Further, a part of the secondary enhanced video object S-EVOB stored in the streaming buffer STRBUF is transferred to the demultiplexer DEMUX in the secondary video player SCDVP, and is demultiplexed.

本実施形態においてアドバンストコンテンツADVCTの再生時には、あらゆるユーザー入力イベントがアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGENにより最初に処理される。本実施形態におけるユーザー入力ハンドリングモデルを図48に示す。   In the present embodiment, when the advanced content ADVCT is played back, every user input event is first processed by the programming engine PRGEN in the advanced application manager ADAMNG. FIG. 48 shows a user input handling model in the present embodiment.

例えばキーボードやマウスあるいはリモコンなどの各種ユーザーインターフェースドライブで発生されるユーザーオペレーションUOPEの信号は図32に示すようにユーザーインターフェースエンジンUIENG内の各種デバイスコントローラーモジュール(例えばリモートコントロールコントローラーRMCCTR、キーボードコントローラーKBDCTRやマウスコントローラーMUSCTRなど)によりユーザーインターフェースイベントUIEVTとして入力される。すなわち、ユーザーオペレーションUOPEの信号は、図48に示すようにユーザーインターフェースエンジンUIENGを介し、ユーザーインターフェースイベントUIEVTとしてアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGEN内に入力される。各種スクリプトSCRPTの実行を対応するECMA(エクマ)スクリプトプロセッサECMASPがアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGEN内に存在する。本実施形態においてアドバンストアプリケーションマネージャーADAMNG内のプログラミングエンジンPRGEN内には図48に示すようにアドバンストアプリケーションのスクリプトADAPLSの保存場所とデフォルトイベントハンドラースクリプトDEVHSPの保存場所がある。本実施形態におけるユーザー入力イベントの一覧表を図49に示す。前記図49に示すように、例えば画面上でカーソルを移動させるなどの簡単な操作またはそれらの簡単な操作の組合せをユーザー入力イベントと呼び、早送り再生を行うなどの一連の操作の組合せ処理をインプットハンドラーと呼ぶ。また前記ユーザー入力イベントやインプットハンドラーに対応してバーチャルキーコード(インプットハンドラーコード)が設定されている。本実施形態においてプログラミングエンジンPRGEN内に図49に示したデフォルトインプットハンドラーコードやユーザー入力イベントに対応したバーチャルキーコードの情報がデフォルトイベントハンドラースクリプトDEVHSP内に予め記録されている。またネットワークサーバーNTSRVや情報記憶媒体DISC、パーシステントストレージPRSTRから取り込んだアドバンストアプリケーションADAPLのスクリプトファイルSCRPT(図13参照)内に記録された情報が図48に示すようにプログラミングエンジンPRGEN内のアドバンストアプリケーションのスクリプト記録領域ADAPLS内に記録される。 ECMA(エクマ)スクリプトプロセッサECMASPがユーザーインターフェースイベントUIEVTを受取るとそのユーザーインターフェースイベントUIEVT内に含まれるイベントハンドラーコード(デフォルトインプットハンドラーコードまたはユーザー入力イベントに対応したバーチャルキーコード)を解析し、ユーザーインターフェースイベントUIEVT内に記述されたイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に全て登録されているイベントハンドラーコードに対応しているかどうかの検索を行う。もしユーザーインターフェースイベントUIEVT内に記述された全てのイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に登録されたイベントハンドラーコードに該当していた場合にはECMA(エクマ)スクリプトプロセッサECMASPは直ちにその内容に応じた実行処理を開始する。もし、前記ユーザーインターフェースイベントUIEVT内に記述されたイベントハンドラーコードがアドバンストアプリケーションのスクリプト記録領域ADAPLS内に登録されていないイベントハンドラーコードが存在した場合には、ECMA(エクマ)スクリプトプロセッサECMASPは、デフォルトイベントハンドラースクリプトDEVHSP内を検索し、対応したイベントハンドラーコードが存在するか否かを調べる。デフォルトイベントハンドラースクリプトDEVHSP内に不足したイベントハンドラーコードに対する情報が全て存在していた場合には、ECMA(エクマ)スクリプトプロセッサECMASPはアドバンストアプリケーションのスクリプト記録領域ADAPLSとデフォルトイベントハンドラースクリプトDEVHSP内に登録されているイベントハンドラーコードを利用し、ユーザーインターフェースイベントUIEVTの内容に従い実行処理を行う。もし、前記デフォルトイベントハンドラースクリプトDEVHSP内にもユーザーインターフェースイベントUIEVT内に含まれるイベントハンドラーコードが登録されていない場合にはECMA(エクマ)スクリプトプロセッサECMASPは、前記ユーザーインターフェースイベントUIEVTの内容を無視し、ユーザーインターフェースイベントUIEVTの実行を無効とする。   For example, user operation UOPE signals generated by various user interface drives such as a keyboard, mouse, or remote controller, as shown in FIG. 32, are various device controller modules (for example, remote control controller RMCCTR, keyboard controller KBDCTR, and mouse) in the user interface engine UIENG. Input as user interface event UIEVT by controller MUSCTR). That is, the signal of the user operation UOPE is input to the programming engine PRGEN in the advanced application manager ADAMNG as the user interface event UIEVT through the user interface engine UIENG as shown in FIG. An ECMA script processor ECMASP corresponding to the execution of various scripts SCRPT exists in the programming engine PRGEN in the advanced application manager ADAMNG. In the present embodiment, the programming engine PRGEN in the advanced application manager ADAMNG has a storage location for the advanced application script ADAPLS and a storage location for the default event handler script DEVHSP, as shown in FIG. FIG. 49 shows a list of user input events in the present embodiment. As shown in FIG. 49, for example, a simple operation such as moving the cursor on the screen or a combination of these simple operations is called a user input event, and a combination process of a series of operations such as fast-forward playback is input. Called a handler. A virtual key code (input handler code) is set corresponding to the user input event and the input handler. In this embodiment, the default input handler code shown in FIG. 49 and the virtual key code information corresponding to the user input event are recorded in advance in the default event handler script DEVHSP in the programming engine PRGEN. In addition, the information recorded in the script file SCRPT (see Fig. 13) of the advanced application ADAPL imported from the network server NTSRV, information storage medium DISC, and persistent storage PRSTR shows the advanced application in the programming engine PRGEN as shown in Fig. 48. It is recorded in the script recording area ADAPLS. When the ECMA script processor ECMASP receives the user interface event UIEVT, it analyzes the event handler code (default input handler code or virtual key code corresponding to the user input event) included in the user interface event UIEVT, and the user interface event The event handler code described in UIEVT is searched for whether it corresponds to all event handler codes registered in the script recording area ADAPLS of the advanced application. If all event handler codes described in the user interface event UIEVT correspond to the event handler codes registered in the ADAPLS script recording area of the advanced application, the ECMA script processor ECMASP immediately contains the contents. The execution process corresponding to is started. If the event handler code described in the user interface event UIEVT is not registered in the script recording area ADAPLS of the advanced application, the ECMA script processor ECMASP Search the handler script DEVHSP to see if the corresponding event handler code exists. If all the information about the missing event handler code exists in the default event handler script DEVHSP, the ECMA script processor ECMASP is registered in the script recording area ADAPLS of the advanced application and the default event handler script DEVHSP. The event handler code is used to execute the execution according to the contents of the user interface event UIEVT. If the event handler code included in the user interface event UIEVT is not registered in the default event handler script DEVHSP, the ECMA script processor ECMASP ignores the content of the user interface event UIEVT, Disable execution of user interface event UIEVT.

図48の説明文内で記述したイベントハンドラーとイベントハンドラーコードの内容を図49に示す。図49の内容は図48のデフォルトイベントハンドラースクリプトDEVHSP内に事前に登録されたイベントハンドラーやバーチャルキーコードの内容を表し、図48で説明したユーザーイベントハンドラーが図49のデフォルトインプットハンドラーに対応し、図48で説明したデフォルトイベントハンドラーコードが図49のバーチャルキーコードに対応する。図49におけるインストラクションとは前記バーチャルキーコードに対応した実行内容を表し、具体的な内容は機能概要により説明する。   FIG. 49 shows the contents of the event handler and event handler code described in the explanatory text of FIG. The contents of FIG. 49 represent the contents of event handlers and virtual key codes registered in advance in the default event handler script DEVHSP of FIG. 48. The user event handler described in FIG. 48 corresponds to the default input handler of FIG. The default event handler code described in FIG. 48 corresponds to the virtual key code in FIG. The instruction in FIG. 49 represents the execution content corresponding to the virtual key code, and the specific content will be described with reference to the function outline.

図49に示すようにデフォルトインプットハンドラーを持っているイベントは、15種類のバーチャルキーコードに対応している。バーチャルキーコードが“VK_PLAY”の場合、デフォルトインプットハンドラーは“playHandler”、値は“0xFA”であり、標準速度再生時に設定する。次にバーチャルキーコードが“VK_PAUSE”の場合、デフォルトインプットハンドラーは“pauseHandler”、値は“0xB3”であり、一時停止/再生時に設定する。次にバーチャルキーコードが“VK_FF”の場合、デフォルトインプットハンドラーは“fastForwardHandler”、値は“0xC1”であり、早送り再生時に設定する。次にバーチャルキーコードが“VK_FR”の場合、デフォルトインプットハンドラーは“fastReverseHandler”、値は“0xC2”であり、高速巻戻し再生時に設定する。次にバーチャルキーコードが“VK_SF”の場合、デフォルトインプットハンドラーは“slowForwardHandler”、値は“0xC3”であり、ゆっくり再生の時に設定する。次にバーチャルキーコードが“VK_SR”の場合、デフォルトインプットハンドラーは“slowReverseHandler”、値は“0xC4”であり、ゆっくり巻戻しの時に設定する。次にバーチャルキーコードが“VK_STEP_PREV”の場合、デフォルトインプットハンドラーは“stepPreviousHandler”、値は“0xC5”であり、前のステップに戻る時に設定する。次にバーチャルキーコードが“VK_STEP_NEXT”の場合、デフォルトインプットハンドラーは“stepNextHandler”、値は“0xC6”であり、次のステップへ飛ぶ時に設定する。次にバーチャルキーコードが“VK_SKIP_PREV”の場合、デフォルトインプットハンドラーは“skipPreviousHandler”、値は“0xC7”であり、前のチャプターを再生する時に設定する。次にバーチャルキーコードが“VK_SKIP_NEXT”の場合、デフォルトインプットハンドラーは“skipNextHandler”、値は“0xC8”であり、次のチャプターを再生する時に設定する。次にバーチャルキーコードが“VK_SUBTITLE_SWITCH”の場合、デフォルトイン
プットハンドラーは“switchSubtitleHandler”、値は“0xC9”であり、サブタイトルの表示有無の設定を行う。次にバーチャルキーコードが“VK_SUBTITLE”の場合、デフォルトインプットハンドラーは“changeSubtitleHandler”、値は“0xCA”であり、サブタイトルトラックの変更時に設定する。次にバーチャルキーコードが“VK_CC”の場合、デフォルトインプットハンドラーは“showClosedCaptionHandler”、値は“0xCB”であり、クローズドキャプションの表示をする時に設定する。次にバーチャルキーコードが“VK_ANGLE”の場合、デフォルトインプットハンドラーは“changeAngleHandler”、値は“0xCC”であり、アングルの切替え時に設定する。次にバーチャルキーコードが“VK_AUDIO”の場合、デフォルトインプットハンドラーは“changeAudioHandler”、値は“0xCD”でありオーディオトラックの切替えをする時に設定する。
As shown in FIG. 49, an event having a default input handler corresponds to 15 types of virtual key codes. When the virtual key code is “VK_PLAY”, the default input handler is “playHandler” and the value is “0xFA”, which is set during standard speed playback. Next, when the virtual key code is “VK_PAUSE”, the default input handler is “pauseHandler” and the value is “0xB3”, which is set at the time of pause / playback. Next, when the virtual key code is “VK_FF”, the default input handler is “fastForwardHandler” and the value is “0xC1”, which is set during fast forward playback. Next, when the virtual key code is “VK_FR”, the default input handler is “fastReverseHandler” and the value is “0xC2”, which are set during fast rewind playback. Next, when the virtual key code is “VK_SF”, the default input handler is “slowForwardHandler” and the value is “0xC3”, which is set during slow playback. Next, when the virtual key code is “VK_SR”, the default input handler is “slowReverseHandler” and the value is “0xC4”, which is set when slowly rewinding. Next, when the virtual key code is “VK_STEP_PREV”, the default input handler is “stepPreviousHandler” and the value is “0xC5”, which is set when returning to the previous step. Next, when the virtual key code is “VK_STEP_NEXT”, the default input handler is “stepNextHandler” and the value is “0xC6”, which is set when jumping to the next step. Next, when the virtual key code is “VK_SKIP_PREV”, the default input handler is “skipPreviousHandler” and the value is “0xC7”, which is set when playing the previous chapter. Next, when the virtual key code is “VK_SKIP_NEXT”, the default input handler is “skipNextHandler” and the value is “0xC8”, which is set when the next chapter is played. Next, when the virtual key code is “VK_SUBTITLE_SWITCH”, the default input handler is “switchSubtitleHandler”, the value is “0xC9”, and the setting of whether or not to display the subtitle is performed. Next, when the virtual key code is “VK_SUBTITLE”, the default input handler is “changeSubtitleHandler” and the value is “0xCA”, which is set when the subtitle track is changed. Next, when the virtual key code is “VK_CC”, the default input handler is “showClosedCaptionHandler” and the value is “0xCB”, which is set when displaying closed captions. Next, when the virtual key code is “VK_ANGLE”, the default input handler is “changeAngleHandler” and the value is “0xCC”, which is set when the angle is switched. Next, when the virtual key code is “VK_AUDIO”, the default input handler is “changeAudioHandler” and the value is “0xCD”, which is set when switching audio tracks.

また、デフォルトインプットハンドラーを持っていないイベントについても、バーチャルキーコードに対しての値、インストラクションを設定することができる。バーチャルキーコードが“VK_MENU”の場合、値は“0xCE”であり、メニュー表示時に設定する。次にバーチャルキーコードが“VK_TOP_MENU”の場合、値は“0xCF”であり、トップメニューの表示をする時に設定する。次にバーチャルキーコードが“VK_BACK”の場合、値は“0xD0”であり、前の画面に戻る又は再生開始位置に戻る時に設定する。次にバーチャルキーコードが“VK_RESUME”の場合、値は“0xD1”であり、メニューからの戻り時に設定する。次にバーチャルキーコードが“VK_LEFT”の場合、値は“0x25”であり、カーソルを左にずらす時に設定する。次にバーチャルキーコードが“VK_UP”の場合、値は“0x26”であり、カーソルを上に上げる時に設定する。次にバーチャルキーコードが“VK_RIGHT”の場合、値は“0x27”であり、カーソルを右にずらす時に設定する。次にバーチャルキーコードが“VK_DOWN”の場合、値は“0x28”であり、カーソルを下に下げる時に設定する。次にバーチャルキーコードが“VK_UPLEFT”の場合、値は“0x29”であり、カーソルを左上に上げる時に設定する。次にバーチャルキーコードが“VK_UPRIGHT”の場合、値は“0x30”であり、カーソルを右上に上げる時に設定する。次にバーチャルキーコードが“VK_DOWNLEFT”の場合、値は“0x31”であり、カーソルを左下に下げる時に設定する。次にバーチャルキーコードが“VK_DOWNRIGHT”の場合、値は“0x32”であり、カーソルを右下に下げる時に設定する。次にバーチャルキーコードが“VK_TAB”の場合、値は“0x09”であり、タブ使用時に設定する。次にバーチャルキーコードが“VK_A_BUTTON”の場合、値は“0x70”であり、Aボタン押下時に設定する。次にバーチャルキーコードが“VK_B_BUTTON”の場合、値は“0x71”であり、Bボタン押下時に設定する。次にバーチャルキーコードが“VK_C_BUTTON”の場合、値は“0x72”であり、Cボタン押下時に設定する。次にバーチャルキーコードが“VK_D_BUTTON”の場合、値は“0x73”であり、Dボタン押下時に設定する。次にバーチャルキーコードが“VK_ENTER”の場合、値は“0x0D”であり、OKボタン押下時に設定する。次にバーチャルキーコードが“VK_ESC”の場合、値は“0x1B”であり、キャンセル時に設定する。次にバーチャルキーコードが“VK_0”の場合、値は“0x30”であり“0”と設定する。次にバーチャルキーコードが“VK_1”の場合、値は“0x31”であり、“1”と設定する。次にバーチャルキーコードが“VK_2”の場合、値は“0x32”であり、“2”と設定する。次にバーチャルキーコードが“VK_3”の場合、値は“0x33”であり、“3”と設定する。次にバーチャルキーコードが“VK_4”の場合、値は“0x34”であり、“4”と設定する。次にバーチャルキーコードが“VK_5”の場合、値は“0x35”であり、“5”と設定する。次にバーチャルキーコードが“VK_6”の場合、値は“0x36”であり、“6”と設定する。次にバーチャルキーコードが“VK_7”の場合、値は“0x37”であり、“7”と設定する。次にバーチャルキーコードが“VK_8”の場合、値は“0x38”であり、“8”と設定する。次にバーチャルキーコードが“VK_9”の場合、値は“0x39”であり、“9”と設定する。次にバーチャルキーコードが“VK_MOUSEDOWN”の場合、値は“0x01”であり、指定エレメントを入力不可能とする(非最前面に移す)時に設定する。次にバーチャルキーコードが“VK_MOUSEUP”の場合、値は“0x02”であり、指定エレメントを入力可能とする(最前面に移す)時に設定する。   You can also set values and instructions for virtual keycodes for events that do not have a default input handler. When the virtual key code is “VK_MENU”, the value is “0xCE” and is set when the menu is displayed. Next, when the virtual key code is “VK_TOP_MENU”, the value is “0xCF”, which is set when displaying the top menu. Next, when the virtual key code is “VK_BACK”, the value is “0xD0”, which is set when returning to the previous screen or returning to the playback start position. Next, when the virtual key code is “VK_RESUME”, the value is “0xD1”, which is set when returning from the menu. Next, when the virtual key code is “VK_LEFT”, the value is “0x25”, which is set when the cursor is moved to the left. Next, when the virtual key code is “VK_UP”, the value is “0x26”, which is set when the cursor is moved up. Next, when the virtual key code is “VK_RIGHT”, the value is “0x27”, which is set when the cursor is moved to the right. Next, when the virtual key code is “VK_DOWN”, the value is “0x28” and is set when the cursor is lowered. Next, when the virtual key code is “VK_UPLEFT”, the value is “0x29” and is set when the cursor is raised to the upper left. Next, when the virtual key code is “VK_UPRIGHT”, the value is “0x30”, which is set when the cursor is moved to the upper right. Next, when the virtual key code is “VK_DOWNLEFT”, the value is “0x31”, which is set when the cursor is lowered to the lower left. Next, when the virtual key code is “VK_DOWNRIGHT”, the value is “0x32” and is set when the cursor is lowered to the lower right. Next, when the virtual key code is “VK_TAB”, the value is “0x09”, which is set when the tab is used. Next, when the virtual key code is “VK_A_BUTTON”, the value is “0x70”, which is set when the A button is pressed. Next, when the virtual key code is “VK_B_BUTTON”, the value is “0x71”, which is set when the B button is pressed. Next, when the virtual key code is “VK_C_BUTTON”, the value is “0x72”, which is set when the C button is pressed. Next, when the virtual key code is “VK_D_BUTTON”, the value is “0x73”, which is set when the D button is pressed. Next, when the virtual key code is “VK_ENTER”, the value is “0x0D”, which is set when the OK button is pressed. Next, when the virtual key code is “VK_ESC”, the value is “0x1B” and is set when canceling. Next, when the virtual key code is “VK_0”, the value is “0x30” and is set to “0”. Next, when the virtual key code is “VK_1”, the value is “0x31” and is set to “1”. Next, when the virtual key code is “VK_2”, the value is “0x32” and is set to “2”. Next, when the virtual key code is “VK_3”, the value is “0x33” and is set to “3”. Next, when the virtual key code is “VK_4”, the value is “0x34” and is set to “4”. Next, when the virtual key code is “VK_5”, the value is “0x35” and is set to “5”. Next, when the virtual key code is “VK — 6”, the value is “0x36” and is set to “6”. Next, when the virtual key code is “VK_7”, the value is “0x37” and is set to “7”. Next, when the virtual key code is “VK_8”, the value is “0x38” and is set to “8”. Next, when the virtual key code is “VK_9”, the value is “0x39” and is set to “9”. Next, when the virtual key code is “VK_MOUSEDOWN”, the value is “0x01”, which is set when the specified element cannot be input (move to the front). Next, when the virtual key code is “VK_MOUSEUP”, the value is “0x02”, which is set when the specified element can be input (move to the front).

現行DVD-Videoまたは本実施形態におけるスタンダードコンテンツSTDCTにおいて、システム的に利用するパラメーターを設定するものとしてSPRM(システムパラメーター)が定義されている。しかし、本実施形態においてアドバンストコンテンツナビゲーションでは前記SPRM(システムパラメーター)は使用されず、前記SPRM(システムパラメーター)に変わるものとして図50〜図53に至るシステムパラメーターが設定される。アドバンストコンテンツADVCT再生時においてはAPIコマンド処理により前記SPRM(システムパラメーター)の値を知ることができる。本実施形態におけるシステムパラメーターは、下記の4種類のパラメーターを設定することができる。前記システムパラメーターは情報記録再生装置1内のアドバンストコンテンツ再生部ADVPL毎にそれぞれ設定される。図50に示すプレイヤーパラメーターは、各情報記録再生装置1毎に共通して設定することができる。図51に示すプロファイルパラメーターは、ユーザープロファイルのデータを示している。図52に示すプレゼンテーションパラメーターは、画面上の表示状態を示している。また、図53に示すレイアウトパラメーターは、映像表示時のレイアウト(図43参照)に関するパラメーターを意味している。   In the current DVD-Video or the standard content STDCT in the present embodiment, SPRM (system parameter) is defined as a parameter to be used systematically. However, in the present embodiment, the SPRM (system parameter) is not used in the advanced content navigation, and the system parameters shown in FIGS. 50 to 53 are set in place of the SPRM (system parameter). During playback of advanced content ADVCT, the value of the SPRM (system parameter) can be known by API command processing. As the system parameters in the present embodiment, the following four types of parameters can be set. The system parameters are set for each advanced content playback unit ADVPL in the information recording / playback apparatus 1. The player parameters shown in FIG. 50 can be set in common for each information recording / reproducing apparatus 1. The profile parameters shown in FIG. 51 indicate user profile data. The presentation parameters shown in FIG. 52 indicate the display state on the screen. Also, the layout parameters shown in FIG. 53 mean parameters relating to the layout during video display (see FIG. 43).

本実施形態において前記システムパラメーターは、図16におけるデータキャッシュDTCCH内にテンポラリーに設定するが、それに限らず図32に示すナビゲーションマネージャーNVMNG内のパーサーPARSER内に設定されているテンポラリーメモリー(図示していないが)内に設定することもできる。以下に各図面毎の説明を行う。   In the present embodiment, the system parameters are set temporarily in the data cache DTCCH in FIG. 16, but not limited thereto, temporary memory (not shown) set in the parser PARSER in the navigation manager NVMNG shown in FIG. Can be set in). Hereinafter, each drawing will be described.

図50は、本実施形態におけるプレイヤーパラメーターの一覧である。   FIG. 50 is a list of player parameters in the present embodiment.

本実施形態においてプレイヤーパラメーターは、プレイヤーパラメーターオブジェクトと、データーキャッシュオブジェクトの2個のオブジェクトからなる。前記プレイヤーパラメーターとは、図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLが映像再生処理を行う上で必要とされる一般的なパラメーター情報を意味する。前記プレイヤーパラメーターの中でネットワークダウンロードやパーシステントストレージPRSTRからデータキャッシュDTCCHへのデータ転送に関わらない一般的なパラメーター情報がプレイヤーパラメーターに属する。本実施形態における前記アドバンストコンテンツ再生部ADVPL内での処理は、前記データキャッシュDTCCHへのデータ転送処理を前提としている。前記アドバンストコンテンツ再生部ADVPLが必要とされるパラメーター情報として、前記データキャッシュへのデータ転送処理に必要なパラメーターがデータキャッシュに対応したプレイヤーパラメーターとして定義される。   In this embodiment, the player parameter is composed of two objects, a player parameter object and a data cache object. The player parameter means general parameter information required for the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15 to perform video playback processing. Among the player parameters, general parameter information not related to data download from the network download or persistent storage PRSTR to the data cache DTCCH belongs to the player parameters. The processing in the advanced content playback unit ADVPL in the present embodiment is premised on data transfer processing to the data cache DTCCH. As parameter information required by the advanced content playback unit ADVPL, parameters required for data transfer processing to the data cache are defined as player parameters corresponding to the data cache.

プレイヤーパラメーターオブジェクト内には、13個のプレイヤーパラメーターが設定されている。プレイヤーパラメーターの内容として“majorVersion”については、対応規格書のバージョン番号の正数値を意味する。“minorVersion”については、対応規格書のバージョン番号の小数点以下の数字を意味する。“videoCapabilitySub”については、サブビデオの表示可能を意味する。“audioCapabilityMain”については、メインオーディオの表示可能を意味する。“audioCapabilitySub”については、サブオーディオの表示可能を意味する。“audioCapabilityAnalog”については、アナログオーディオの表示可能を意味する。“audioCapabilityPCM”については、PCMオーディオの表示可能を意味する。“audioCapabilitySPDIF”については、S/PDIFオーディオの表示可能を意味する。“regionCode”については、リージョンコードを意味する。前記リージョンコードとは地球上を6つの地域に分け、各地域毎にリージョンコード番号を設定したものを意味する。映像再生時には前記リージョンコード番号に合致した地域でのみ再生表示を許可することができる。“countryCode”については、国コードを意味する。“displayAspectRatio”については、アスペクト比を意味する。前記アスペクト比とは、ユーザーに表示する映像画面の縦横比のことである。“currentDisplayMode”については、表示モードを意味する。“networkThroughput”については、ネットワークスループットを意味する。前記ネットワークスループットとは、ネットワークを経由しネットワークサーバーNTSRVから転送されるデータの転送レートのことである。   Thirteen player parameters are set in the player parameter object. “MajorVersion” as the content of the player parameter means a positive value of the version number of the corresponding standard. “MinorVersion” means a number after the decimal point of the version number of the corresponding standard. “VideoCapabilitySub” means that sub video can be displayed. “AudioCapabilityMain” means that main audio can be displayed. “AudioCapabilitySub” means that sub audio can be displayed. “AudioCapabilityAnalog” means that analog audio can be displayed. “AudioCapabilityPCM” means that PCM audio can be displayed. “AudioCapabilitySPDIF” means that S / PDIF audio can be displayed. “RegionCode” means a region code. The region code means one obtained by dividing the earth into six regions and setting a region code number for each region. At the time of video playback, playback display can be permitted only in the region that matches the region code number. “CountryCode” means country code. “DisplayAspectRatio” means the aspect ratio. The aspect ratio is the aspect ratio of the video screen displayed to the user. “CurrentDisplayMode” means a display mode. “NetworkThroughput” means network throughput. The network throughput is a transfer rate of data transferred from the network server NTSRV via the network.

また、データーキャッシュオブジェクト内には“dataCacheSize”が設定され、その内容としてデーターキャッシュサイズを意味する。   In addition, “dataCacheSize” is set in the data cache object, which means the data cache size.

図51は、本実施形態におけるプロファイルパラメーターの一覧である。   FIG. 51 is a list of profile parameters in the present embodiment.

本実施形態においてプロファイルパラメーターは、プロファイルパラメーターオブジェクトからなる。前記プロファイルパラメーターとは、図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにより処理される画面の表示形式に関するパラメーターを意味する。プロファイルパラメーターオブジェクト内には4個のプロファイルパラメーターが設定されている。プロファイルパラメーターの内容として“parentalLevel”とは、例えばアダルトビデオや暴力/残虐シーンが盛込まれた映像など子供に見せられない映像に対し、子供に見せられるレベルを規定したパラメーターを意味している。上記パラメーターを利用することにより例えばパレンタルレベルが高い映像を子供に見せる場合には、子供が見れる部分だけ編集した映像を表示することが可能となる。“menuLanguage”については、メニュー言語を意味する。“initialAudioLanguage”については、初期時のオーディオ言語を意味する。“initialSubtitleLanguage”については、初期時のサブタイトル言語を意味する。   In the present embodiment, the profile parameter consists of a profile parameter object. The profile parameter means a parameter related to a display format of a screen processed by the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. Four profile parameters are set in the profile parameter object. As the content of the profile parameter, “parentalLevel” means a parameter that defines a level that can be shown to a child with respect to a video that cannot be shown to a child, such as an adult video or a video with a violent / cruel scene. By using the above parameters, for example, when displaying a video with a high parental level to a child, it is possible to display a video edited only for the part that the child can see. “MenuLanguage” means a menu language. “InitialAudioLanguage” means an initial audio language. “InitialSubtitleLanguage” means an initial subtitle language.

図52は、本実施形態におけるプレゼンテーションパラメーターの一覧である。   FIG. 52 is a list of presentation parameters in the present embodiment.

実施形態においてプレゼンテーションパラメーターは、図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLで処理される表示画面や表示音声に関するパラメーターを意味し、プレイリストマネージャーPLMNGオブジェクトと、オーディオミキシングエンジンADMXENオブジェクトとデータキャッシュDTCCHオブジェクトの3個のオブジェクトからなる。前記プレイリストマネージャーPLMNGオブジェクトとは、図32に示すナビゲーションマネージャーNVMNG内のプレイリストマネージャーPLMNG内での処理に必要なパラメーターである。また、オーディオミキシングエンジンADMXENオブジェクトは図42に示すAVレンダラーAVRND内のオーディオミキシングエンジンADMXEN内での処理に必要なパラメーターであり、データキャッシュDTCCHオブジェクトは図31に示すデータキャッシュDTCCH内のストリーミングバッファーSTRBUF内での処理に必要なパラメーター(データーキャッシュ)に分類することができる。   In the embodiment, the presentation parameter means a parameter related to a display screen and display audio processed by the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15, and includes a playlist manager PLMNG object and an audio mixing engine ADMXEN object. And a data cache DTCCH object. The playlist manager PLMNG object is a parameter necessary for processing in the playlist manager PLMNG in the navigation manager NVMNG shown in FIG. Further, the audio mixing engine ADMXEN object is a parameter required for processing in the audio mixing engine ADMXEN in the AV renderer AVRND shown in FIG. 42, and the data cache DTCCH object is in the streaming buffer STRBUF in the data cache DTCCH shown in FIG. Can be categorized as parameters (data cache) required for processing.

プレイリストマネージャーPLMNGオブジェクト内には11個のプレイリストマネージャーPLMNGが設定されている。プレイリストマネージャーPLMNGの内容として、“playlist”についての説明を以下に行う。プレイリストファイルPLLSTには、ファイル名に番号が付加できるようになっており、プレイリストファイルPLLSTを編集または更新した場合には、過去の付加番号のうち最も値の高い番号より“1”値の高い番号を付加して保存することで最新のプレイリストファイルPLLSTができる構造になっている。アドバンストコンテンツ再生部ADVPLが再生すべきプレイリストファイルPLLSTの付加番号を前記パラメーターに設定することでユーザーが望む最適なプレイリストPLLSTに基づき映像再生することが可能となる。本実施形態はそれに限らず他の実施形態としてタイトルID(titleId)とタイトルタイムライン上の経過時間(titleElapsedTime)と組み合せることにより、ユーザーが最後に再生中断した場所(最後に再生を終了させた場所)の記録に利用することもできる。“titleId”については、再生中断した時の(最後に再生した)タイトルの識別情報(タイトルID)を記録することにより、ユーザーが再び再生開始した時に前回再生中断したタイトルから再生を開始できるようにする。“titleElapsedTime”については、タイトルタイム上の経過時間を意味する。 “currentVideoTrack”については、メインビデオのトラック番号を意味する。“currentAudioTrack”については、メインオーディオのトラック番号を意味する。“currentSubtitleTrack”についてはサブタイトルのトラック番号を意味する。“selectedAudioLanguage”とはユーザーが選択し、再生時に音声出力される言語(日本語JA、英語ENなど)を意味する。“selectedAudioLanguageExtension”については、選択されたオーディオ言語の拡張領域を意味する。“selectedSubtitleLanguage” とはユーザーが選択し、再生時に出力されるサブタイトルの言語(日本語JP、英語ENなど)を意味する。“selectedSubtitleLanguageExtension”については、選択されたサブタイトル言語の拡張領域を意味する。“selectedApplicationGroup”とはユーザーが選択し、再生時に出力されるアプリケーショングループの言語(日本語JP、英語ENなど)を意味する。例えば図20に示したヘルプアイコン33に表示される文字が“ヘルプ”と表示するか“Help”と表示するかの表示言語識別を表している。   Eleven playlist managers PLMNG are set in the playlist manager PLMNG object. As a content of the playlist manager PLMNG, “playlist” will be described below. A number can be added to the file name of the playlist file PLLST, and when the playlist file PLLST is edited or updated, the playlist file PLLST has a value “1” higher than the highest number of past addition numbers. It is structured so that the latest playlist file PLLST can be created by adding a high number and saving. By setting the additional number of the playlist file PLLST to be played back by the advanced content playback unit ADVPL as the parameter, video playback can be performed based on the optimum playlist PLLST desired by the user. This embodiment is not limited to this, but as another embodiment, the combination of the title ID (titleId) and the elapsed time (titleElapsedTime) on the title timeline allows the user to stop the playback last (the last playback ended) It can also be used to record location. As for “titleId”, by recording the identification information (title ID) of the title when playback is interrupted (last played), when the user starts playback again, playback can be started from the title that was interrupted last time. To do. “TitleElapsedTime” means an elapsed time on the title time. “CurrentVideoTrack” means the track number of the main video. “CurrentAudioTrack” means the track number of the main audio. “CurrentSubtitleTrack” means the track number of the subtitle. “SelectedAudioLanguage” means a language (Japanese JA, English EN, etc.) selected by the user and output as audio during playback. “SelectedAudioLanguageExtension” means an extension area of the selected audio language. “SelectedSubtitleLanguage” means the language (Japanese JP, English EN, etc.) of the subtitle selected by the user and output during playback. “SelectedSubtitleLanguageExtension” means an extension area of the selected subtitle language. “SelectedApplicationGroup” means the language (Japanese JP, English EN, etc.) of the application group selected by the user and output during playback. For example, the display language identification indicates whether the character displayed on the help icon 33 shown in FIG. 20 is displayed as “Help” or “Help”.

また、オーディオミキシングエンジンADMXENオブジェクト内には10個のオーディオミキシングエンジンADMXENが設定されている。オーディオミキシングエンジンADMXENの内容として、“volumeL”については、左側チャンネルの音量を意味する。“volumeR”については、右側チャンネルの音量を意味する。“volumeC”については、中央チャンネルの音量を意味する。“volumeLS”については、左側サラウンドチャンネルの音量を意味する。“volumeRS”については、右側サラウンドチャンネルの音量を意味する。“volumeLB”については、左後ろ側のチャンネルの音量を意味する。“volumeRB”については、右後ろ側のチャンネルの音量を意味する。“volumeLFE”については、サブウーハーチャンネルの音量を意味する。“mixSubXtoX”については、サブオーディオのダウンミックス係数(パーセンテージ)を意味する。例えば図20に示すようにメインビデオMANVDにより表示された本編31とサブビデオSUBVDにより表示されたコマーシャル用の別画面32を同時に表示する場合、本編31に対応したメインオーディオMANADとコマーシャル用の別画面32に対応したサブオーディオSUBADを同時に音声出力する必要が発生する。その時のメインオーディオMANAD音量に対するサブオーディオSUBVDの出力音量比をサブオーディオのダウンミックス係数と言う。“mixEffectXtoX”については、サブイフェクトオーディオのダウンミックス係数(パーセンテージ)を意味する。例えば図20に示すようにメインビデオMANVD表示中にユーザーがアドバンストアプリケーションADAPLで構成される各種アイコン33〜38を押すことがある。ユーザーが前記アドバンストアプリケーションADAPL内の各エレメント(アイコン)の実行を指示したことを表す効果音がサブイフェクトオーディオの一例を意味する。この場合、本編31に対応したメインオーディオMANADと同時に前記サブイフェクトオーディオを音声出力する必要が起きる。この時のメインオーディオMANAD音量に対するサブイフェクトオーディオの出力音量比をサブイフェクトオーディオのダウンミックス係数と言う。   Further, 10 audio mixing engines ADMXEN are set in the audio mixing engine ADMXEN object. As the contents of the audio mixing engine ADMXEN, “volumeL” means the volume of the left channel. “VolumeR” means the volume of the right channel. “VolumeC” means the volume of the center channel. “VolumeLS” means the volume of the left surround channel. “VolumeRS” means the volume of the right surround channel. “VolumeLB” means the volume of the left rear channel. “VolumeRB” means the volume of the right rear channel. “VolumeLFE” means the volume of the subwoofer channel. “MixSubXtoX” means a sub-audio downmix coefficient (percentage). For example, as shown in FIG. 20, when the main video 31 displayed by the main video MANVD and the commercial separate screen 32 displayed by the sub video SUBVD are displayed at the same time, the main audio MANAD corresponding to the main video 31 and the commercial separate screen are displayed. It is necessary to output the sub audio SUBAD corresponding to 32 at the same time. The ratio of the output volume of the sub audio SUBVD to the main audio MANAD volume at that time is called the sub audio downmix coefficient. “MixEffectXtoX” means a sub-effect audio downmix coefficient (percentage). For example, as shown in FIG. 20, the user may press various icons 33 to 38 configured by the advanced application ADAPL while the main video MANVD is displayed. A sound effect indicating that the user has instructed execution of each element (icon) in the advanced application ADAPL means an example of sub-effect audio. In this case, it is necessary to output the sub-effect audio simultaneously with the main audio MANAD corresponding to the main part 31. The ratio of the sub-effect audio output volume to the main audio MANAD volume at this time is called the sub-effect audio downmix coefficient.

また、データキャッシュDTCCHオブジェクト内には“streamingBufferSize”が設定され、その内容としてストリーミングバッファーサイズを意味する。ネットワークサーバーNTSRVから転送されたセカンダリービデオセットSCDVSのデータは一時的にストリーミングバッファーSTRBUF内に格納される。これを可能にするには予めデータキャッシュDTCCH内のストリーミングバッファーSTRBUFのサイズを割当てておく必要があるが、この時必要なストリーミングバッファーSTRBUFサイズはプレイリストファイルPLLST内の構造情報CONFGI内に規定されている。   Also, “streamingBufferSize” is set in the data cache DTCCH object, which means the streaming buffer size. The data of the secondary video set SCDVS transferred from the network server NTSRV is temporarily stored in the streaming buffer STRBUF. In order to make this possible, it is necessary to allocate the size of the streaming buffer STRBUF in the data cache DTCCH in advance, but the required size of the streaming buffer STRBUF is specified in the structure information CONFGI in the playlist file PLLST. Yes.

図53は、本実施形態におけるレイアウトパラメーターの一覧である。本実施形態においてレイアウトパラメーターは、プレゼンテーションエンジンPRSENオブジェクトからなる。前記レイアウトパラメーターとは、図15に示す情報記録再生装置1内のアドバンストコンテンツ再生部ADVPLにより処理され、ユーザーに表示される画面上のレイアウトに関係するパラメーターを意味する。   FIG. 53 is a list of layout parameters in the present embodiment. In this embodiment, the layout parameter is composed of a presentation engine PRSEN object. The layout parameter means a parameter related to the layout on the screen that is processed by the advanced content playback unit ADVPL in the information recording / playback apparatus 1 shown in FIG. 15 and displayed to the user.

プレゼンテーションエンジンPRSENオブジェクト内には16個のプレゼンテーションエンジンPRSENが設定されている。プレゼンテーションエンジンPRSENの内容として、“mainVideo.x”については、メインビデオの原点位置のX座標値を意味する。“mainVideo.y”については、メインビデオの原点位置のY座標値を意味する。“mainVideoScaleNumerator”については、メインビデオのスケーリング値の分子の値を意味する。“mainVideoScaleDenominator”については、メインビデオのスケーリング値の分母の値を意味する。“mainVideoCrop.x”については、サブビデオ表示領域のX座標値を意味する。“mainVideoCrop.y”については、サブビデオ表示領域のY座標値を意味する。“mainVideoCrop.width”については、サブビデオ表示領域の幅を意味する。“mainVideoCrop.height”については、サブビデオ表示領域の高さを意味する。“subVideo.x”については、サブビデオの原点位置のX座標値を意味する。“subVideo.y”については、サブビデオの原点位置のY座標値を意味する。“subVideoScaleNumerator”については、サブビデオスケーリング値の分子を意味する。“subVideoScaleDenominator”については、サブビデオスケーリング値の分母を意味する。“subVideoCrop.x”については、サブビデオ表示領域のX座標値を意味する。“subVideoCrop.y”については、サブビデオ表示領域のY座標値を意味する。“subVideoCrop.width”については、サブビデオ表示領域の幅を意味する。“subVideoCrop.height”については、サブビデオ表示領域の高さを意味する。   Sixteen presentation engines PRSEN are set in the presentation engine PRSEN object. As the contents of the presentation engine PRSEN, “mainVideo.x” means the X coordinate value of the origin position of the main video. “MainVideo.y” means the Y coordinate value of the origin position of the main video. “MainVideoScaleNumerator” means the numerator value of the scaling value of the main video. “MainVideoScaleDenominator” means the denominator value of the scaling value of the main video. “MainVideoCrop.x” means the X coordinate value of the sub video display area. “MainVideoCrop.y” means the Y coordinate value of the sub video display area. “MainVideoCrop.width” means the width of the sub video display area. “MainVideoCrop.height” means the height of the sub video display area. “SubVideo.x” means the X coordinate value of the origin position of the sub video. “SubVideo.y” means the Y coordinate value of the origin position of the sub video. “SubVideoScaleNumerator” means the numerator of the sub video scaling value. “SubVideoScaleDenominator” means the denominator of the sub video scaling value. “SubVideoCrop.x” means the X coordinate value of the sub video display area. “SubVideoCrop.y” means the Y coordinate value of the sub video display area. “SubVideoCrop.width” means the width of the sub video display area. “SubVideoCrop.height” means the height of the sub video display area.

本実施形態の技術を採用することにより、
1.柔軟かつ多様な表現力(PC画面ライク)
2.ネットワークアクション
3.映像関連情報の加工容易性と加工後情報の送信容易性
の要求を充分満たすことが可能となる。
By adopting the technology of this embodiment,
1. Flexible and diverse expression (PC screen-like)
2. Network action It is possible to fully satisfy the requirements for ease of processing video-related information and ease of transmitting post-processing information.

なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   Note that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. In addition, the embodiments may be appropriately combined as much as possible, and in that case, the combined effect can be obtained. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be obtained as an invention.

以下に、原出願の出願当初の特許請求の範囲に記載された発明を付記する。   The invention described in the claims at the beginning of the filing of the original application is appended below.

[1]
情報記憶媒体は、
ナビゲーションマネージャーを具備した情報記録再生装置もしくは情報再生装置により再生される情報記憶媒体であって、
前記ナビゲーションマネージャー内に存在するプレイリストマネージャーにより、少なくとも一部が解読されるプレイリストが記録されている領域を備える。
[1]
Information storage media
An information recording / reproducing apparatus provided with a navigation manager or an information storage medium reproduced by the information reproducing apparatus,
An area in which a playlist that is at least partially decrypted by the playlist manager existing in the navigation manager is recorded.

[2]
情報再生装置は、
アドバンスドコンテンツを再生するアドバンストコンテンツ再生部を具備する。
[2]
Information playback device
An advanced content playback unit for playing back advanced content is provided.

[3]
上記[2]に記載の情報再生装置は、
情報記録再生部と、
パーシステントストレージドライブとネットワーク制御部の少なくとも一方と、
を具備し、
前記アドバンストコンテンツ再生部は、ナビゲーションマネージャー及びAVレンダラーを含む。
[3]
The information reproducing apparatus according to the above [2]
An information recording / reproducing unit;
At least one of a persistent storage drive and a network controller;
Comprising
The advanced content playback unit includes a navigation manager and an AV renderer.

[4]
情報再生方法は、
ナビゲーションマネージャー及びAVレンダラーを含むアドバンストコンテンツ再生部と、情報記録再生部と、パーシステントストレージドライブ及びネットワーク制御部の少なくとも一方とを具備する情報再生装置に適用される情報再生方法であって、
前記ナビゲーションマネージャーとAVレンダラーにより情報を再生する。
[4]
Information reproduction method is
An information reproduction method applied to an information reproduction apparatus comprising an advanced content reproduction unit including a navigation manager and an AV renderer, an information recording / reproduction unit, and at least one of a persistent storage drive and a network control unit,
Information is reproduced by the navigation manager and the AV renderer.

[5]
情報再生プログラムは、
情報記録再生装置もしくは情報再生装置のプレイリストマネージャーにより、少なくとも一部が解読されるプレイリストに関する情報を含む。
[5]
Information reproduction program
It includes information on a playlist that is at least partially deciphered by the information recording / reproducing apparatus or the playlist manager of the information reproducing apparatus.

1…情報記録再生装置、2…情報記録再生部、3…パーシステントストレージドライブ、4…録画再生処理部、5…メインCPU、6…ハードディスク装置、7−1,7−2,7−3…無線LAN制御部、8…ネットワーク制御部、9…データマネージャー、11…ルーター、12…光ケーブル、13…ディスプレイ、14…キーボード、15…大画面テレビモニター、16−1,16−2…スピーカー、21…映像表示部、24…映像処理部 DESCRIPTION OF SYMBOLS 1 ... Information recording / reproducing apparatus, 2 ... Information recording / reproducing part, 3 ... Persistent storage drive, 4 ... Recording / reproducing process part, 5 ... Main CPU, 6 ... Hard disk drive, 7-1, 7-2, 7-3 ... Wireless LAN control unit, 8 ... Network control unit, 9 ... Data manager, 11 ... Router, 12 ... Optical cable, 13 ... Display, 14 ... Keyboard, 15 ... Large screen TV monitor, 16-1, 16-2 ... Speaker, 21 ... Video display section, 24 ... Video processing section

Claims (2)

アドバンストコンテンツを再生するアドバンストコンテンツ再生部を具備し、
前記アドバンストコンテンツ再生部は、
メインビデオデータ、サブビデオデータ、及びグラフィックデータを読み取り、
前記メインビデオデータに対応したメインビデオプレイン、前記サブビデオデータに対応したサブビデオプレイン、及び前記グラフィックデータに対応したグラフィックプレインを合成し、
前記メインビデオプレイン、前記サブビデオプレイン、及び前記グラフィックプレインの夫々に対応した前記メインウインドウ、前記サブウインドウ、及び前記グラフィックウィンドウを表示するためのビデオ信号を出力する、
ことを特徴とする情報再生装置。
An advanced content playback unit for playing back advanced content,
The advanced content playback unit
Read main video data, sub video data and graphic data,
A main video plane corresponding to the main video data, a sub video plane corresponding to the sub video data, and a graphic plane corresponding to the graphic data;
Outputting a video signal for displaying the main window, the sub window, and the graphic window corresponding to each of the main video plane, the sub video plane, and the graphic plane;
An information reproducing apparatus characterized by that.
アドバンストコンテンツ再生部を具備する情報再生装置に適用される情報再生方法であって、
前記アドバンストコンテンツ再生部は、
メインビデオデータ、サブビデオデータ、及びグラフィックデータを読み取り、
前記メインビデオデータに対応したメインビデオプレイン、前記サブビデオデータに対応したサブビデオプレイン、及び前記グラフィックデータに対応したグラフィックプレインを合成し、
前記メインビデオプレイン、前記サブビデオプレイン、及び前記グラフィックプレインの夫々に対応した前記メインウインドウ、前記サブウインドウ、及び前記グラフィックウィンドウを表示するためのビデオ信号を出力する、
ことを特徴とする情報再生方法。
An information reproduction method applied to an information reproduction apparatus including an advanced content reproduction unit,
The advanced content playback unit
Read main video data, sub video data and graphic data,
A main video plane corresponding to the main video data, a sub video plane corresponding to the sub video data, and a graphic plane corresponding to the graphic data;
Outputting a video signal for displaying the main window, the sub window, and the graphic window corresponding to each of the main video plane, the sub video plane, and the graphic plane;
An information reproduction method characterized by the above.
JP2010096079A 2010-04-19 2010-04-19 Device and method for reproducing information Pending JP2010211917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010096079A JP2010211917A (en) 2010-04-19 2010-04-19 Device and method for reproducing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010096079A JP2010211917A (en) 2010-04-19 2010-04-19 Device and method for reproducing information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009222786A Division JP2009301708A (en) 2009-09-28 2009-09-28 Information playback device and information playback method

Publications (1)

Publication Number Publication Date
JP2010211917A true JP2010211917A (en) 2010-09-24

Family

ID=42971889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096079A Pending JP2010211917A (en) 2010-04-19 2010-04-19 Device and method for reproducing information

Country Status (1)

Country Link
JP (1) JP2010211917A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161663A (en) * 1997-11-28 1999-06-18 Toshiba Corp Moving picture reproduction control method and image display device applied with same
JPH11238367A (en) * 1998-02-20 1999-08-31 Toshiba Corp Usable key display system
WO2004030356A1 (en) * 2002-09-25 2004-04-08 Matsushita Electric Industrial Co., Ltd. Reproduction device, optical disc, recording medium, program, and reproduction method
JP2004120128A (en) * 2002-09-24 2004-04-15 Seiko Epson Corp Moving picture composite display apparatus and moving picture composite display program
JP2005017674A (en) * 2003-06-26 2005-01-20 Mega Chips Corp Image display device and image display switching method
JP2005051500A (en) * 2003-07-28 2005-02-24 Toshiba Corp Electronic apparatus, and method and program for controlling display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161663A (en) * 1997-11-28 1999-06-18 Toshiba Corp Moving picture reproduction control method and image display device applied with same
JPH11238367A (en) * 1998-02-20 1999-08-31 Toshiba Corp Usable key display system
JP2004120128A (en) * 2002-09-24 2004-04-15 Seiko Epson Corp Moving picture composite display apparatus and moving picture composite display program
WO2004030356A1 (en) * 2002-09-25 2004-04-08 Matsushita Electric Industrial Co., Ltd. Reproduction device, optical disc, recording medium, program, and reproduction method
JP2005017674A (en) * 2003-06-26 2005-01-20 Mega Chips Corp Image display device and image display switching method
JP2005051500A (en) * 2003-07-28 2005-02-24 Toshiba Corp Electronic apparatus, and method and program for controlling display

Similar Documents

Publication Publication Date Title
JP2007048348A (en) Information storage medium, information reproducing apparatus, information reproducing method, and information reproducing program
US7925138B2 (en) Information storage medium, information reproducing apparatus, and information reproducing method
JP2007065928A (en) Information storage medium, information processing method, information transfer method, information reproduction method, information reproduction device, information recording method, information recording device, and program
US20110033169A1 (en) Information reproducing system using information storage medium
JP2007115293A (en) Information storage medium, program, information reproducing method, information reproducing apparatus, data transfer method, and data processing method
JP2008141696A (en) Information memory medium, information recording method, information memory device, information reproduction method, and information reproduction device
KR100786165B1 (en) Information storage medium, information playback apparatus, information playback method, and information playback program
JP2008199415A (en) Information storage medium and device, information recording method,, and information reproducing method and device
JP2010211917A (en) Device and method for reproducing information
JP2009301708A (en) Information playback device and information playback method
JP2012234619A (en) Information processing method, information transfer method, information control method, information service method, information display method, information processor, information reproduction device, and server
JP2008171401A (en) Information storage medium, program, information reproducing method, and information transfer device
JP2007109354A (en) Information storage medium, information reproducing method, and information recording method
JP2012048812A (en) Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110524