JP2000036946A - Receiver - Google Patents
ReceiverInfo
- Publication number
- JP2000036946A JP2000036946A JP10203857A JP20385798A JP2000036946A JP 2000036946 A JP2000036946 A JP 2000036946A JP 10203857 A JP10203857 A JP 10203857A JP 20385798 A JP20385798 A JP 20385798A JP 2000036946 A JP2000036946 A JP 2000036946A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- data
- information
- module
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えばデジタル衛
星放送などのデータサービスにおける受信設備側に設け
られるとされる受信装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a receiving apparatus provided on a receiving facility side in a data service such as digital satellite broadcasting.
【0002】[0002]
【従来の技術】近年、デジタル衛星放送の普及が進んで
いる。デジタル衛星放送は、例えば既存のアナログ放送
と比較してノイズやフェージングに強く、高品質の信号
を伝送することが可能である。また、周波数利用効率が
向上され、多チャンネル化も図ることが可能になる。具
体的には、デジタル衛星放送であれば1つの衛星で数百
チャンネルを確保することも可能である。このようなデ
ジタル衛星放送では、スポーツ、映画、音楽、ニュース
などの専門チャンネルが多数用意されており、これらの
専門チャンネルでは、それぞれの専門のコンテンツに応
じたプログラムが放送されている。2. Description of the Related Art In recent years, digital satellite broadcasting has been widely used. Digital satellite broadcasting is more resistant to noise and fading than, for example, existing analog broadcasting, and can transmit high-quality signals. Further, the frequency use efficiency is improved, and it is possible to increase the number of channels. Specifically, in the case of digital satellite broadcasting, one satellite can secure several hundred channels. In such digital satellite broadcasting, a large number of specialty channels for sports, movies, music, news, etc. are prepared, and in these specialty channels, programs corresponding to the respective special contents are broadcast.
【0003】そして、上記のようなデジタル衛星放送シ
ステムを利用して、ユーザが楽曲等の音声データをダウ
ンロードできるようにしたり、いわゆるテレビショッピ
ングとして、例えばユーザが放送画面を見ながら何らか
の商品についての購買契約を結べるようにしたりするこ
とが提案されている。つまりは、デジタル衛星放送シス
テムとして、通常の放送内容と並行したデータサービス
放送を行うものである。[0003] The digital satellite broadcasting system as described above is used to enable a user to download audio data such as music, or as a so-called TV shopping, for example, the user purchases a certain product while watching a broadcast screen. It has been proposed that contracts be made. That is, the digital satellite broadcasting system performs data service broadcasting in parallel with ordinary broadcasting contents.
【0004】一例として、楽曲データのダウンロードで
あれば、放送側においては、放送番組と並行して、楽曲
データを多重化して放送するようにする。また、この楽
曲データのダウンロードに際しては、GUI(Graphical
User Interface)画面(即ちダウンロード用の操作画面
である)を表示させることでインタラクティブな操作を
ユーザに行わせるようにされるが、このGUI画面出力
のためのデータも多重化して放送するようにされる。そ
して、受信装置を所有しているユーザ側では、所望のチ
ャンネルを選局している状態で、受信装置に対する所定
の操作によって楽曲データをダウンロードするためのG
UI画面を表示出力させるようにする。そして、この表
示された操作画面に対してユーザが操作を行うことで、
例えば受信装置に接続したデジタルオーディオ機器に対
してデータを供給し、これが録音されるようにするもの
である。As an example, in the case of downloading music data, the broadcasting side multiplexes and broadcasts the music data in parallel with the broadcast program. When downloading the music data, a GUI (Graphical
User interface) screen (that is, an operation screen for download) is displayed to allow the user to perform an interactive operation, and data for outputting the GUI screen is also multiplexed and broadcast. You. Then, the user who owns the receiving device selects a desired channel, and downloads music data by performing a predetermined operation on the receiving device.
The UI screen is displayed and output. Then, when the user performs an operation on the displayed operation screen,
For example, data is supplied to a digital audio device connected to a receiving device so that the data is recorded.
【0005】ところで、上記のような楽曲データをダウ
ンロードするためのGUI画面としては、例えばGUI
画面を形成するパーツ的な画像データ、テキストデータ
などの情報に加え、更には所定操作に応じた音声出力の
ための音声データなどの単位データ(ファイル)をそれ
ぞれオブジェクトとして扱い、このオブジェクトの出力
態様を所定方式によるシナリオ記述によって規定するこ
とによって、上記操作画面についての所要の表示形態及
び音声等の出力態様を実現するように構成することが考
えられる。なお、ここでは、上記GUI画面のようにし
て、記述情報によって規定されることで、或る目的に従
った機能を実現する表示画面(ここでは音声等の出力も
含む)のことを「シーン」というものとする。また、
「オブジェクト」とは、記述情報に基づいてその出力態
様が規定される画像、音声、テキスト等の単位情報を示
しており、伝送時においては、ここでは記述情報自体の
データファイルも「オブジェクト」の1つとして扱われ
るものとする。[0005] By the way, a GUI screen for downloading music data as described above includes, for example, a GUI screen.
In addition to information such as part-like image data and text data forming a screen, unit data (files) such as voice data for voice output according to a predetermined operation are treated as objects, and the output mode of the object Is defined by a scenario description according to a predetermined method, a configuration that realizes a required display mode and an output mode such as sound on the operation screen can be considered. Here, a display screen (including an output of voice or the like) that realizes a function according to a certain purpose by being defined by the description information like the above-described GUI screen is referred to as a “scene”. It is assumed that. Also,
The “object” indicates unit information such as an image, a sound, and a text whose output mode is defined based on the description information. At the time of transmission, here, the data file of the description information itself is also an “object”. Shall be treated as one.
【0006】上記シーン表示及びシーン表示上での音声
出力等を実現するためのオブジェクトは、放送局側で放
送すべきシーンを形成するデータのディレクトリ構造に
対して適当にマッピングが施され、所定の伝送方式に従
ってエンコードされて送信される。例えば、或る1番組
において複数のシーンが必要な場合には、これら複数の
シーンに必要されるオブジェクトのデータが適当にマッ
ピングされたうえで送信されることになる。受信装置側
では伝送方式に従ってデコード処理を施して、例えば表
示に必要なシーンに必要とされるオブジェクトごとの纏
まりとしてのデータを得て、これをシーンとして出力す
るようにされる。Objects for realizing the scene display and audio output on the scene display are appropriately mapped to a directory structure of data forming a scene to be broadcast on the broadcast station side, Encoded according to the transmission method and transmitted. For example, if a certain program requires a plurality of scenes, the data of the objects necessary for the plurality of scenes is transmitted after being appropriately mapped. On the receiving device side, decoding processing is performed in accordance with the transmission method, for example, data as a group for each object required for a scene required for display is obtained, and this is output as a scene.
【0007】[0007]
【発明が解決しようとする課題】ここで、受信装置を所
有するユーザにとってみれば、あるチャンネルを選局し
て最初にシーンを表示するまでの待ち時間や、或るシー
ンから他のシーンに表示を切り換えるような際の待ち時
間はできるだけ短いようにすることが、快適な操作環境
という点で好ましい。Here, for the user who owns the receiving apparatus, a waiting time until a certain channel is selected and a scene is displayed for the first time, or a scene is displayed from a certain scene to another scene. It is preferable to make the waiting time when switching between the two as short as possible from the viewpoint of a comfortable operation environment.
【0008】例えば、シーン表示の切り換えが迅速に行
われるようにする対策として、受信装置側に比較的大容
量のバッファを備えるようにし、受信データから取り込
んだシーンごとのオブジェクトの集まりとしてのデータ
を、このバッファに格納しておくようにすることが考え
られる。このようにすれば、バッファから読み出したデ
ータに基づいて迅速に次のシーンに切り換えを行うこと
が可能になる。但し、上記のようなバッファを受信装置
に備えるということは、それだけ受信装置の回路規模の
大型化及びコストアップにつながるとう不利な点を抱え
ることになる。[0008] For example, as a countermeasure for quickly switching the scene display, a relatively large-capacity buffer is provided on the receiving device side, and data as a group of objects for each scene captured from the received data is stored. It is conceivable to store it in this buffer. This makes it possible to quickly switch to the next scene based on the data read from the buffer. However, the provision of the above-described buffer in the receiving apparatus has a disadvantage that the circuit scale of the receiving apparatus becomes large and the cost increases.
【0009】[0009]
【課題を解決するための手段】そこで本発明は上記した
課題を考慮して、受信装置側においてできるだけ迅速に
必要なシーンのデータが得られるようにし、例えばシー
ン出力の切り換えなども迅速に行われるようにすること
を目的とする。また、これを実現するのにあたり、例え
ば大容量のバッファなどを備えることなく、出来るだけ
小規模な回路で実現できるようにすることを目的とす
る。SUMMARY OF THE INVENTION In view of the above-mentioned problems, the present invention makes it possible to obtain necessary scene data as quickly as possible on the receiving device side, and for example, to quickly switch scene outputs. The purpose is to be. It is another object of the present invention to realize a small-scale circuit without providing a large-capacity buffer, for example.
【0010】このため、1シーンを形成するシーンデー
タが1又は複数の情報伝送単位に対応するものとされ、
1以上の情報伝送単位から成る伝送データが循環的に送
信される送信情報を受信する受信装置として、送信情報
を受信して受信データとして取り込む受信手段と、情報
伝送単位でデータを一時蓄積可能なメモリ手段を備え、
受信データから情報伝送単位でデータの抽出を行ってメ
モリ手段に保持させ、このメモリ手段に蓄積されたシー
ンデータとしての情報伝送単位を、シーンデータ格納用
のシーンデータ格納手段に対して伝送して格納させるこ
とのできるシーンデータ取込手段と、シーンデータ格納
手段に格納されているシーンデータのうちから、所要の
シーンデータを利用してシーン出力を行うことのできる
シーン出力手段と、受信手段により受信された送信情報
からシーンの優先順位を示すシーン優先順位情報を獲得
する情報獲得手段と、この情報獲得手段により得られた
シーン優先順位情報に基づいて、受信データから抽出し
てメモリ手段に蓄積させるべきシーンデータとしての情
報伝送単位を選択するように上記シーンデータ取込手段
に対して制御を行う制御手段とを備えて構成することと
した。Therefore, scene data forming one scene corresponds to one or a plurality of information transmission units,
As a receiving apparatus for receiving transmission information in which transmission data composed of one or more information transmission units is cyclically transmitted, a receiving means for receiving transmission information and taking in as reception data, and capable of temporarily storing data in the information transmission unit Comprising memory means,
Data is extracted in units of information transmission from the received data and stored in the memory means, and the information transmission unit as scene data stored in the memory means is transmitted to the scene data storage means for storing scene data. A scene data capturing unit that can be stored, a scene output unit that can perform a scene output using required scene data from among scene data stored in the scene data storage unit, and a receiving unit. Information obtaining means for obtaining scene priority information indicating the priority of a scene from the received transmission information; and extracting from the received data based on the scene priority information obtained by the information obtaining means and storing the extracted data in the memory means. The scene data acquisition means is controlled so as to select an information transmission unit as scene data to be performed. It was decided to constitute a control means.
【0011】上記構成によれば、例えば1以上の情報伝
送単位(モジュール)から成る伝送データが循環的に送
信される送信方式(カルーセル方式)に対応して受信を
行う受信装置として、先ず、1シーンを形成するシーン
データが情報伝送単位に対応するものとされたことを前
提として、シーンの優先順位に従って、情報伝送単位
(即ちシーンデータ)を取り込んで、これをシーンデー
タ格納手段に格納するようにされる。つまり、シーンの
優先順位に従って、受信データから抽出して取り込むべ
きモジュールを決定するように規定するものである。こ
れにより、シーンデータ格納手段には、シーンの優先順
位の上位に従ってシーンが格納されていくことになる。According to the above configuration, for example, as a receiving apparatus for receiving data corresponding to a transmission method (carousel method) in which transmission data composed of one or more information transmission units (modules) is cyclically transmitted, first, Assuming that scene data forming a scene corresponds to an information transmission unit, an information transmission unit (ie, scene data) is fetched in accordance with the priority of the scene and stored in the scene data storage means. To be. In other words, it is stipulated that the module to be extracted and received from the received data is determined according to the priority of the scene. As a result, the scene data is stored in the scene data storage means in accordance with the order of priority of the scene.
【0012】[0012]
【発明の実施の形態】以降、本発明の実施の形態につい
て説明する。本発明が適用されるシステムとしては、デ
ジタル衛星放送を利用して番組を放送すると共に、受信
装置側ではこの番組に関連した楽曲データ(音声デー
タ)等の情報をダウンロードできるようにしたシステム
を例に挙げることとする。Embodiments of the present invention will be described below. An example of a system to which the present invention is applied is a system that broadcasts a program using digital satellite broadcasting and allows the receiving device to download information such as music data (audio data) related to the program. I will list it.
【0013】なお、以降の説明は次の順序で行うことと
する。 1.デジタル衛星放送システム 1−1.全体構成 1−2.GUI画面に対する操作 1−3.地上局 1−4.送信フォーマット 1−5.IRD 2.本発明に至った背景 3.地上局側のデータマッピング例 4.本実施の形態のキューへのモジュール割付The following description will be made in the following order. 1. Digital satellite broadcasting system 1-1. Overall configuration 1-2. Operation on GUI screen 1-3. Ground station 1-4. Transmission format 1-5. IRD 2. 2. Background of the Invention 3. Data mapping example on the ground station side Module assignment to queue in this embodiment
【0014】1.デジタル衛星放送システムの構成 1−1.全体構成 図1は、本実施の形態としてのデジタル衛星放送システ
ムの全体構成を示すものである。この図に示すように、
デジタル衛星放送の地上局1には、テレビ番組素材サー
バ6からのテレビ番組放送のための素材と、楽曲素材サ
ーバ7からの楽曲データの素材と、音声付加情報サーバ
8からの音声付加情報と、GUIデータサーバからのG
UIデータとが送られる。1. Configuration of Digital Satellite Broadcasting System 1-1. 1. Overall Configuration FIG. 1 shows the overall configuration of a digital satellite broadcasting system according to the present embodiment. As shown in this figure,
In the ground station 1 of digital satellite broadcasting, a material for television program broadcasting from the television program material server 6, a material of music data from the music material server 7, an additional audio information from the additional audio information server 8, G from GUI data server
UI data is sent.
【0015】テレビ番組素材サーバ6は、通常の放送番
組の素材を提供するサーバである。このテレビ番組素材
サーバから送られてくる音楽放送の素材は、動画及び音
声とされる。例えば、音楽放送番組であれば、上記テレ
ビ番組素材サーバ6の動画及び音声の素材を利用して、
例えば新曲のプロモーション用の動画及び音声が放送さ
れたりすることになる。The television program material server 6 is a server that provides materials for ordinary broadcast programs. The music broadcast material sent from the television program material server is a moving image and a sound. For example, in the case of a music broadcast program, using the video and audio materials of the TV program material server 6,
For example, a moving image and sound for promotion of a new song are broadcast.
【0016】楽曲素材サーバ7は、オーディオチャンネ
ルを使用して、オーディオ番組を提供するサーバであ
る。このオーディオ番組の素材は音声のみとなる。この
楽曲素材サーバ7は、複数のオーディオチャンネルのオ
ーディオ番組の素材を地上局1に伝送する。各オーディ
オチャンネルの番組放送ではそれぞれ同一の楽曲が所定
の単位時間繰り返して放送される。各オーディオチャン
ネルは、それぞれ、独立しており、その利用方法として
は各種考えられる。例えば、1つのオーディオチャンネ
ルでは最新の日本のポップスの数曲を或る一定時間繰り
返し放送し、他のオーディオチャンネルでは最新の外国
のポップスの数曲を或る一定時間繰り返し放送するとい
うようにされる。The music material server 7 is a server that provides an audio program using an audio channel. The material of this audio program is only audio. The music material server 7 transmits materials of audio programs of a plurality of audio channels to the ground station 1. In the program broadcast of each audio channel, the same music is repeatedly broadcast for a predetermined unit time. Each audio channel is independent of each other, and various usages can be considered. For example, one audio channel repeatedly broadcasts some of the latest Japanese pops for a certain period of time, and another audio channel repeatedly broadcasts some of the latest foreign pops for a certain period of time. .
【0017】音声付加情報サーバ8は、楽曲素材サーバ
7から出力される楽曲の時間情報等を提供するサーバで
ある。The audio additional information server 8 is a server that provides time information of the music output from the music material server 7 and the like.
【0018】GUIデータサーバ9は、ユーザが操作に
用いるGUI画面を形成するための「GUIデータ」を
提供する。例えば後述するような楽曲のダウンロードに
関するGUI画面であれば、配信される楽曲のリストペ
ージや各楽曲の情報ページを形成するための画像デー
タ、テキストデータ、アルバムジャケットの静止画を形
成するためのデータなどを提供する。更には、受信設備
3側にていわゆるEPG(Electrical Program Guide)と
いわれる番組表表示を行うのに利用されるEPGデータ
もここから提供される。なお、「GUIデータ」として
は、例えばMHEG(Multimedia Hypermedia Informati
on Coding Experts Group)方式が採用される。MHEG
とは、マルチメディア情報、手順、操作などのそれぞれ
と、その組み合わせをオブジェクトとして捉え、それら
のオブジェクトを符号化したうえで、タイトル(例えば
GUI画面)として制作するためのシナリオ記述の国際
標準とされる。また、本実施の形態ではMHEG−5を
採用するものとする。The GUI data server 9 provides "GUI data" for forming a GUI screen used for operation by the user. For example, in the case of a GUI screen related to downloading music as described later, image data, text data, and data for forming a still image of an album jacket for forming a list page of distributed music and an information page of each music. And so on. Further, EPG data used for displaying a program table called a so-called EPG (Electrical Program Guide) on the receiving facility 3 side is also provided from this. The “GUI data” is, for example, MHEG (Multimedia Hypermedia Informati
on Coding Experts Group). MHEG
Is an international standard of scenario description for capturing multimedia information, procedures, operations, etc., and their combinations as objects, encoding those objects, and producing them as titles (eg, GUI screens). You. In this embodiment, MHEG-5 is adopted.
【0019】地上局1は上記テレビ番組素材サーバ6、
楽曲素材サーバ7、音声付加情報サーバ8、及びGUI
データサーバ9から伝送された情報を多重化して送信す
る。本実施の形態では、テレビ番組素材サーバ6から伝
送されたビデオデータはMPEG(Moving Picture Expe
rts Group)2方式により圧縮符号化され、オーディオデ
ータはMPEG2オーディオ方式により圧縮符号化され
る。また、楽曲素材サーバ7から伝送されたオーディオ
データは、オーディオチャンネルごとに対応して、例え
ばMPEG2オーディオ方式と、ATRAC(Adoptive
Tranform Acoustic Coding)方式と何れか一方の方式に
より圧縮符号化される。また、これらのデータは多重化
の際、キー情報サーバ10からのキー情報を利用して暗
号化される。なお、地上局1の内部構成例については後
述する。The ground station 1 has the above-mentioned television program material server 6,
Music material server 7, audio additional information server 8, and GUI
The information transmitted from the data server 9 is multiplexed and transmitted. In the present embodiment, the video data transmitted from the television program material server 6 is MPEG (Moving Picture Expe
(rts Group) 2 system, and the audio data is compression-encoded by the MPEG2 audio system. The audio data transmitted from the music material server 7 corresponds to, for example, the MPEG2 audio system and the ATRAC (Adoptive
It is compressed and encoded by either one of the Tranform Acoustic Coding) method and the other method. These data are encrypted using key information from the key information server 10 at the time of multiplexing. An example of the internal configuration of the ground station 1 will be described later.
【0020】地上局1からの信号は衛星2を介して各家
庭の受信設備3で受信される。衛星2には複数のトラン
スポンダが搭載されている。1つのトランスポンダは例
えば30Mbpsの伝送能力を有している。各家庭の受
信設備3としては、パラボラアンテナ11とIRD(Int
egrated Receiver Decorder)12と、ストレージデバイ
ス13と、モニタ装置14とが用意される。また、この
場合には、IRD12に対して操作を行うためのリモー
トコントローラ64が示されている。The signal from the ground station 1 is received by the receiving equipment 3 of each home via the satellite 2. The satellite 2 has a plurality of transponders. One transponder has a transmission capacity of, for example, 30 Mbps. As the receiving equipment 3 of each home, a parabolic antenna 11 and an IRD (Int
egrated Receiver Decorder) 12, a storage device 13, and a monitor device 14. In this case, a remote controller 64 for operating the IRD 12 is shown.
【0021】パラボラアンテナ11で衛星2を介して放
送されてきた信号が受信される。この受信信号がパラボ
ラアンテナ11に取り付けられたLNB(Low Noize Blo
ck Down Converter)15で所定の周波数に変換され、I
RD12に供給される。A signal broadcasted via the satellite 2 by the parabolic antenna 11 is received. This received signal is transmitted to the LNB (Low Noize Blo
ck Down Converter) 15
It is supplied to RD12.
【0022】IRD12における概略的な動作として
は、受信信号から所定のチャンネルの信号を選局し、そ
の選局された信号から番組としてのビデオデータ及びオ
ーディオデータの復調を行ってビデオ信号、オーディオ
信号として出力する。また、IRD12では、番組とし
てのデータと共に多重化されて送信されてくる、GUI
データに基づいてGUI画面としての出力も行う。この
ようなIRD12の出力は、例えばモニタ装置14に対
して供給される。これにより、モニタ装置14では、I
RD12により受信選局した番組の画像表示及び音声出
力が行われ、また、後述するようなユーザの操作に従っ
てGUI画面を表示させることが可能となる。As a general operation of the IRD 12, a signal of a predetermined channel is selected from a received signal, and video data and audio data as a program are demodulated from the selected signal to obtain a video signal and an audio signal. Output as In the IRD 12, a GUI multiplexed with data as a program and transmitted is transmitted.
An output as a GUI screen is also performed based on the data. The output of the IRD 12 is supplied to, for example, the monitor device 14. As a result, in the monitor device 14, I
The RD 12 performs image display and audio output of a program selected and received, and also allows a GUI screen to be displayed in accordance with a user operation as described later.
【0023】ストレージデバイス13は、IRD12に
よりダウンロードされたオーディオデータ(楽曲デー
タ)を保存するためのものである。このストレージデバ
イス13の種類としては特に限定されるものではなく、
MD(Mini Disc)レコーダ/プレーヤ、DATレコーダ
/プレーヤ、DVDレコーダ/プレーヤ等を用いること
ができる。また、ストレージデバイス13としてパーソ
ナルコンピュータ装置を用い、ハードディスクのほか、
CD−R等をはじめとする記録が可能なメディアにオー
ディオデータを保存するようにすることも可能とされ
る。The storage device 13 is for storing audio data (song data) downloaded by the IRD 12. The type of the storage device 13 is not particularly limited.
An MD (Mini Disc) recorder / player, a DAT recorder / player, a DVD recorder / player, or the like can be used. In addition, a personal computer device is used as the storage device 13, and in addition to a hard disk,
It is also possible to store audio data in a recordable medium such as a CD-R.
【0024】また、本実施の形態の受信設備3として
は、図2に示すように、データ伝送規格としてIEEE
1394に対応したデータインターフェイスを備えたM
Dレコーダ/プレーヤ13Aを、図1に示すストレージ
デバイス13として使用することができるようになって
いる。この図に示すIEEE1394対応のMDレコー
ダ/プレーヤ13Aは、IEEE1394バス16によ
りIRD12と接続される。これによって、本実施の形
態では、IRD12にて受信された、楽曲としてのオー
ディオデータ(ダウンロードデータ)を、ATRAC方
式により圧縮処理が施されたままの状態で直接取り込ん
で記録することができる。また、MDレコーダ/プレー
ヤ13AとIRD12とをIEEE1394バス16に
より接続した場合には、上記オーディオデータの他、そ
のアルバムのジャケットデータ(静止画データ)及び歌
詞などのテキストデータを記録することも可能とされて
いる。As shown in FIG. 2, the receiving equipment 3 according to the present embodiment has an IEEE standard for data transmission.
M with data interface compatible with 1394
The D recorder / player 13A can be used as the storage device 13 shown in FIG. The IEEE 1394-compatible MD recorder / player 13A shown in FIG. 1 is connected to the IRD 12 via an IEEE 1394 bus 16. As a result, in the present embodiment, audio data (download data) as music received by the IRD 12 can be directly captured and recorded in a state where compression processing has been performed by the ATRAC method. When the MD recorder / player 13A and the IRD 12 are connected via the IEEE 1394 bus 16, it is possible to record not only the audio data but also jacket data (still image data) of the album and text data such as lyrics. Have been.
【0025】IRD12は、例えば電話回線4を介して
課金サーバ5と通信可能とされている。IRD12に
は、後述するようにして各種情報が記憶されるICカー
ドが挿入される。例えば楽曲のオーディオデータのダウ
ンロードが行われたとすると、これに関する履歴情報が
ICカードに記憶される。このICカードの情報は、電
話回線4を介して所定の機会、タイミングで課金サーバ
5に送られる。課金サーバ5は、この送られてきた履歴
情報に従って金額を設定して課金を行い、ユーザに請求
する。The IRD 12 can communicate with the accounting server 5 via the telephone line 4, for example. An IC card in which various information is stored is inserted into the IRD 12 as described later. For example, if audio data of a music piece is downloaded, history information relating to the download is stored in the IC card. The information of the IC card is sent to the charging server 5 via the telephone line 4 at a predetermined opportunity and timing. The accounting server 5 sets an amount according to the sent history information, performs accounting, and charges the user.
【0026】これまでの説明から分かるように、本発明
が適用されたシステムでは、地上局1は、テレビ番組素
材サーバ6からの音楽番組放送の素材となるビデオデー
タ及びオーディオデータと、楽曲素材サーバ7からのオ
ーディオチャンネルの素材となるオーディオデータと、
音声付加情報サーバ8からの音声データと、GUIデー
タサーバ9からのGUIデータとを多重化して送信して
いる。そして、各家庭の受信設備3でこの放送を受信す
ると、例えばモニタ装置14により、選局したチャンネ
ルの番組を視聴することができる。また、番組のデータ
と共に送信されるGUIデータを利用したGUI画面と
して、第1にはEPG(Electrical Program Guide;電
子番組ガイド)画面を表示させ、番組の検索等を行うこ
とができる。また、第2には、例えば通常の番組放送以
外の特定のサービス用のGUI画面を利用して所要の操
作を行うことで、本実施の形態の場合には、放送システ
ムにおいて提供されている通常番組の視聴以外のサービ
スを享受することができる。例えば、オーディオ(楽
曲)データのダウンロードサービス用のGUI画面を表
示させて、このGUI画面を利用して操作を行えば、ユ
ーザが希望した楽曲のオーディオデータをダウンロード
してストレージデバイス13に記録して保存することが
可能になる。As can be understood from the above description, in the system to which the present invention is applied, the ground station 1 includes the video data and audio data serving as the music program broadcast material from the TV program material server 6 and the music material server. Audio data as the material of the audio channel from 7,
The voice data from the voice additional information server 8 and the GUI data from the GUI data server 9 are multiplexed and transmitted. Then, when this broadcast is received by the receiving equipment 3 of each home, for example, the program of the selected channel can be viewed by the monitor device 14. First, an EPG (Electrical Program Guide) screen is displayed as a GUI screen using GUI data transmitted together with program data, and a program search or the like can be performed. Second, for example, by performing a required operation using a GUI screen for a specific service other than a normal program broadcast, in the case of the present embodiment, a normal service provided in a broadcast system is provided. Services other than viewing programs can be enjoyed. For example, if a GUI screen for a download service of audio (song) data is displayed and an operation is performed using this GUI screen, the audio data of the song desired by the user is downloaded and recorded in the storage device 13. It becomes possible to save.
【0027】なお、本実施の形態では、上記したような
GUI画面に対する操作を伴う、通常の番組放送以外の
特定のサービスを提供するデータサービス放送について
は、インタラクティブ性を有することもあり、「インタ
ラクティブ放送」ともいうことにする。In the present embodiment, a data service broadcast that provides a specific service other than a normal program broadcast, which involves an operation on the GUI screen as described above, may have interactivity. Broadcast ".
【0028】1−2.GUI画面に対する操作 ここで、上述しているインタラクティブ放送の利用例、
つまり、GUI画面に対する操作例について、図3及び
図4を参照して概略的に説明しておく。ここでは、楽曲
データ(オーディオデータ)のダウンロードを行う場合
について述べる。1-2. Operation on GUI Screen Here, the above-mentioned use example of interactive broadcasting,
That is, an operation example on the GUI screen will be schematically described with reference to FIGS. Here, a case in which music data (audio data) is downloaded will be described.
【0029】先ず、図3によりIRD12に対してユー
ザが操作を行うためのリモートコントローラ64の操作
キーについて、特に主要なものについて説明しておく。
図3には、リモートコントローラ64において各種キー
が配列された操作パネル面が示されている。ここでは、
これら各種キーのうち、電源キー101、数字キー10
2、画面表示切換キー103、インタラクティブ切換キ
ー104、EPGキーパネル部105、チャンネルキー
106について説明する。First, the main operation keys of the remote controller 64 for the user to operate the IRD 12 will be described with reference to FIG.
FIG. 3 shows an operation panel surface on which various keys are arranged in the remote controller 64. here,
Among these various keys, the power key 101, the numeric key 10
2. The screen display switching key 103, the interactive switching key 104, the EPG key panel unit 105, and the channel key 106 will be described.
【0030】電源キー101は、IRD12の電源のオ
ン/オフを行うためのキーである。数字キー102は、
数字指定によりチャンネル切り換えを行ったり、例えば
GUI画面において数値入力操作が必要な場合に操作す
るためのキーである。画面表示切換キー103は、例え
ば通常の放送画面とEPG画面との切り換えを行うキー
である。例えば、画面表示切換キー103によりEPG
画面を呼び出した状態の下で、EPGキーパネル部10
5に配置されたキーを操作すれば、電子番組ガイドの表
示画面を利用した番組検索が行えることになる。また、
EPGキーパネル部105内の矢印キー105aは、後
述するサービス用のGUI画面におけるカーソル移動な
どにも使用することができる。インタラクティブ切換キ
ー104は、通常の放送画面と、その放送番組に付随し
たサービスのためのGUI画面との切り換えを行うため
に設けられる。チャンネルキー106は、IRD12に
おける選局チャンネルをそのチャンネル番号の昇順、降
順に従って順次切り換えていくために設けられるキーで
ある。The power key 101 is a key for turning on / off the power of the IRD 12. Numeric keys 102
These keys are used to switch channels by designating a number, or to operate, for example, when a numerical input operation is required on a GUI screen. The screen display switching key 103 is a key for switching between a normal broadcast screen and an EPG screen, for example. For example, the screen display switching key 103
While the screen is being called, the EPG key panel unit 10
By operating the keys arranged in 5, a program search using the display screen of the electronic program guide can be performed. Also,
The arrow keys 105a in the EPG key panel unit 105 can be used for moving a cursor on a GUI screen for a service to be described later. The interactive switching key 104 is provided for switching between a normal broadcast screen and a GUI screen for a service accompanying the broadcast program. The channel key 106 is a key provided for sequentially switching the selected channel in the IRD 12 in ascending order and descending order of the channel number.
【0031】なお、本実施の形態のリモートコントロー
ラ64としては、例えばモニタ装置14に対する各種操
作も可能に構成されているものとされ、これに対応した
各種キーも設けられているものであるが、ここでは、モ
ニタ装置14に対応するキー等の説明は省略する。The remote controller 64 according to the present embodiment is configured to be capable of performing various operations on the monitor device 14, for example, and is provided with various keys corresponding thereto. Here, description of keys and the like corresponding to the monitor device 14 is omitted.
【0032】次に、図4を参照してGUI画面に対する
操作の具体例について説明する。受信設備3により放送
を受信して所望のチャンネルを選局すると、モニタ装置
14の表示画面には、図4(a)に示すように、テレビ
番組素材サーバ6から提供された番組素材に基づく動画
像が表示される。つまり、通常の番組内容が表示され
る。ここでは、例えば音楽番組が表示されているものと
する。また、この音楽番組には楽曲のオーディオデータ
のダウンロードサービス(インタラクティブ放送)が付
随されているものとする。そして、この音楽番組が表示
されている状態の下で、例えばユーザがリモートコント
ローラ64のインタラクティブ切換キー104を操作し
たとすると、表示画面は図4(b)に示すような、オー
ディオデータのダウンロードのためのGUI画面に切り
替わる。Next, a specific example of an operation on the GUI screen will be described with reference to FIG. When a desired channel is selected by receiving a broadcast by the receiving equipment 3, the display screen of the monitor device 14 displays a moving image based on the program material provided from the TV program material server 6 as shown in FIG. An image is displayed. That is, normal program contents are displayed. Here, it is assumed that, for example, a music program is displayed. It is assumed that the music program is accompanied by a download service (interactive broadcast) for audio data of the music. Then, for example, if the user operates the interactive switching key 104 of the remote controller 64 while the music program is being displayed, the display screen shows the audio data download as shown in FIG. Is switched to the GUI screen.
【0033】このGUI画面においては、先ず、画面の
左上部のテレビ番組表示エリア21Aに対して、図4
(a)にて表示されていたテレビ番組素材サーバ6から
のビデオデータによる画像が縮小化されて表示される。
また、画面の右上部には、オーディオチャンネルで放送
されている各チャンネルの楽曲のリスト21Bが表示さ
れる。また、画面の左下にはテキスト表示エリア21C
とジャケット表示エリア21Dが表示される。さらに、
画面の右側には歌詞表示ボタン22、プロフィール表示
ボタン23、情報表示ボタン24、予約録音ボタン2
5、予約済一覧表示ボタン26、録音履歴表示ボタン2
7、およびダウンロードボタン28が表示される。In the GUI screen, first, the TV program display area 21A at the upper left of the screen is displayed as shown in FIG.
The image based on the video data from the television program material server 6 displayed in (a) is reduced and displayed.
In addition, a list 21B of songs of each channel being broadcast on the audio channel is displayed in the upper right part of the screen. A text display area 21C is located at the lower left of the screen.
And the jacket display area 21D are displayed. further,
On the right side of the screen, a lyrics display button 22, a profile display button 23, an information display button 24, a reservation recording button 2
5. Reserved list display button 26, recording history display button 2
7, and a download button 28 are displayed.
【0034】ユーザは、このリスト21Bに表示されて
いる楽曲名を見ながら、興味のある楽曲を探していく。
そして、興味のある楽曲を見つけたらリモートコントロ
ーラ64の矢印キー105a(EPGキーパネル部10
5内)を操作して、その楽曲が表示されている位置にカ
ーソルを合わせた後、エンター操作を行う(例えば矢印
キー105aのセンター位置を押圧操作する)。これに
よって、カーソルを合わせた楽曲を試聴することができ
る。すなわち、各オーディオチャンネルでは、所定の単
位時間中、同一の楽曲が繰り返し放送されているので、
テレビ番組表示エリア21Aの画面はそのままで、IR
D12により上記操作により選択された楽曲のオーディ
オチャンネルに切り換えて音声出力することで、その楽
曲を聞くことができる。この時、ジャケット表示エリア
21Dにはその楽曲のMDジャケットの静止画像が表示
されるThe user searches for a song of interest while looking at the song names displayed in the list 21B.
Then, when a musical piece of interest is found, the arrow keys 105a of the remote controller 64 (EPG key panel unit 10)
5) to move the cursor to the position where the music is displayed, and then perform an enter operation (for example, press the center position of the arrow key 105a). As a result, it is possible to listen to the music piece with the cursor. That is, in each audio channel, the same music is repeatedly broadcast during a predetermined unit time.
The screen of the TV program display area 21A remains unchanged, and the IR
By switching to the audio channel of the music selected by the above operation by D12 and outputting the sound, the music can be heard. At this time, a still image of the MD jacket of the music is displayed in the jacket display area 21D.
【0035】また、例えば上記の状態で歌詞表示ボタン
22にカーソルを合わせ、エンター操作を行う(以下、
ボタン表示にカーソルを合わせ、エンター操作を行うこ
とを「ボタンを押す」という)と、テキスト表示エリア
21Cに楽曲の歌詞がオーディオデータと同期したタイ
ミングで表示される。同様に、プロフィール表示ボタン
23あるいは情報表示ボタン24を押すと、楽曲に対応
するアーティストのプロフィールあるいはコンサート情
報などがテキスト表示エリア21Cに表示される。この
ように、ユーザは、現在どのような楽曲が配信されてい
るのかを知ることができ、更に各楽曲についての詳細な
情報を知ることができる。Further, for example, the cursor is moved to the lyrics display button 22 in the above state, and the enter operation is performed (hereinafter, referred to as "enter").
When the cursor is moved to the button display and the enter operation is performed ("button is pressed"), the lyrics of the music are displayed in the text display area 21C at the timing synchronized with the audio data. Similarly, when the profile display button 23 or the information display button 24 is pressed, an artist profile or concert information corresponding to the music is displayed in the text display area 21C. In this way, the user can know what kind of music is currently being distributed, and can also know detailed information about each music.
【0036】ユーザは試聴した楽曲を購入したい場合に
は、ダウンロードボタン28を押す。ダウンロードボタ
ン28が押されると、選択された楽曲のオーディオデー
タがダウンロードされ、ストレージデバイス13に記憶
される。楽曲のオーディオデータと共に、その歌詞デー
タ、アーティストのプロフィール情報、ジャケットの静
止画データ等をダウンロードすることもできる。そし
て、このようにして楽曲のオーディオデータがダウンロ
ードされる毎に、その履歴情報がIRD12内のICカ
ードに記憶される。ICカードに記憶された情報は、例
えば1カ月に一度ずつ課金サーバ5により取り込みが行
われ、ユーザに対してデータサービスの使用履歴に応じ
た課金が行われる。これによって、ダウンロードされる
楽曲の著作権を保護することができることにもなる。The user presses the download button 28 when he wants to purchase the auditioned music. When the download button 28 is pressed, the audio data of the selected music is downloaded and stored in the storage device 13. Along with the audio data of the music, lyrics data, artist profile information, jacket still image data, and the like can be downloaded. Then, every time the audio data of the music is downloaded in this manner, the history information is stored in the IC card in the IRD 12. The information stored in the IC card is taken in by the charging server 5 once a month, for example, and the user is charged according to the usage history of the data service. Thereby, the copyright of the downloaded music can be protected.
【0037】また、ユーザは予めダウンロードの予約を
行いたい場合には、予約録音ボタン25を押す。このボ
タンを押すと、GUI画面の表示が切り換わり、予約が
可能な楽曲のリストが画面全体に表示される。例えばこ
のリストは1時間単位、1週間単位、チャンル単位等で
検索した楽曲を表示することが可能である。ユーザはこ
のリストの中からダウンロードの予約を行いたい楽曲を
選択すると、その情報がIRD12内に登録される。そ
して、すでにダウンロードの予約を行った楽曲を碓認し
たい場合には、予約済一覧表示ボタン26を押すことに
より、画面全体に表示させることができる。このように
して予約された楽曲は、予約時刻になるとIRD12に
よりダウンロードされ、ストレージデバイス13に記憶
される。When the user wants to make a reservation for download in advance, he presses a reservation recording button 25. When this button is pressed, the display of the GUI screen is switched, and a list of music pieces that can be reserved is displayed on the entire screen. For example, this list can display music searched for in units of one hour, one week, or channel. When the user selects a song to be reserved for download from this list, the information is registered in the IRD 12. Then, when the user wants to check the music whose reservation has already been reserved, the user can press the reserved list display button 26 to display the music on the entire screen. The music thus reserved is downloaded by the IRD 12 at the reserved time and stored in the storage device 13.
【0038】ユーザはダウンロードを行った楽曲につい
て確認したい場合には、録音履歴ボタン27を押すこと
により、既にダウンロードを行った楽曲のリストを画面
全体に表示させることができる。When the user wants to check the downloaded music, the recording history button 27 can be pressed to display a list of already downloaded music on the entire screen.
【0039】このように、本発明が適用されたシステム
の受信設備3では、モニタ装置14のGUI画面上に楽
曲のリストが表示される。そして、このGUI画面上の
表示にしたがって楽曲を選択するとその楽曲を試聴する
ことができ、その楽曲の歌詞やアーティストのプロフィ
ール等を知ることができる。さらに、楽曲のダウンロー
ドとその予約、ダウンロードの履歴や予約済楽曲リスト
の表示等を行うことができる。As described above, in the receiving facility 3 of the system to which the present invention is applied, a list of music pieces is displayed on the GUI screen of the monitor device 14. When a song is selected according to the display on the GUI screen, the song can be previewed, and the lyrics of the song, the artist profile, and the like can be known. Further, it is possible to perform downloading of music and reservation thereof, display of a download history and a list of reserved music, and the like.
【0040】詳しいことは後述するが、上記図4(b)
に示すようなGUI画面の表示と、GUI画面に対する
ユーザの操作に応答したGUI画面上での表示変更、及
び音声出力は、前述したMHEG方式に基づいたシナリ
オ記述により、オブジェクトの関係を規定することによ
り実現される。ここでいうオブジェクトとは、図4
(b)に示された各ボタンに対応するパーツとしての画
像データや各表示エリアに表示される素材データとな
る。そして、本明細書においては、このGUI画面のよ
うな、シナリオ記述によってオブジェクト間の関係が規
定されることで、或る目的に従った情報の出力態様(画
像表示や音声出力等)が実現される環境を「シーン」と
いうものとする。また、1シーンを形成するオブジェク
トとしては、シナリオ記述のファイル自体も含まれるも
のとする。Although the details will be described later, FIG.
The display of the GUI screen as shown in, the change of the display on the GUI screen in response to the user's operation on the GUI screen, and the voice output define the relationship between the objects by the scenario description based on the MHEG method described above. Is realized by: The object here is the one shown in FIG.
Image data as parts corresponding to the buttons shown in FIG. 3B and material data displayed in each display area. In this specification, the relationship between objects is defined by a scenario description such as this GUI screen, thereby realizing an information output mode (image display, audio output, etc.) for a certain purpose. Environment is called a “scene”. It is also assumed that the objects forming one scene include the scenario description file itself.
【0041】以上、説明したように、本発明が適用され
たデジタル衛星放送システムでは放送番組が配信される
と共に、複数のオーディオチャンネルを使用して楽曲の
オーディオデータが配信される。そして、配信されてい
る楽曲のリスト等を使用して所望の楽曲を探し、そのオ
ーディオデータをストレージデバイス13に簡単に保存
することができる。なお、デジタル衛星放送システムに
おける番組提供以外のサービスとしては、上記した楽曲
データのダウンロードの他にも各種考えられる。例え
ば、いわゆるテレビショッピングといわれる商品紹介番
組を放送した上で、GUI画面としては購買契約が結べ
るようなものを用意することも考えられる。As described above, in the digital satellite broadcast system to which the present invention is applied, a broadcast program is distributed, and audio data of music is distributed using a plurality of audio channels. Then, the user can search for a desired music using a list of the music that has been distributed, and can easily store the audio data in the storage device 13. As services other than the program provision in the digital satellite broadcasting system, various other than the above-described downloading of the music data can be considered. For example, it is conceivable that after broadcasting a product introduction program called so-called TV shopping, a GUI screen that allows a purchase contract to be concluded can be prepared.
【0042】1−3.地上局 これまで、本実施の形態としてのデジタル衛星放送シス
テムの概要について説明したが、以降、このシステムに
ついてより詳しい説明を行っていくこととする。そこ
で、先ず地上局1の構成について図5を参照して説明す
る。1-3. Ground Station The outline of the digital satellite broadcasting system according to the present embodiment has been described above, but the system will be described in more detail hereinafter. Therefore, the configuration of the ground station 1 will be described first with reference to FIG.
【0043】なお、以降の説明にあたっては、次のこと
を前提とする。本実施の形態では、地上局1から衛星2
を介しての受信設備3への送信を行うのにあたり、DS
M−CC(デジタル蓄積メディア・コマンド・アンド・
コントロール;Digital Strage Media-Command and Con
trol)プロトコルを採用する。DSM−CC(MPEG
−part6)方式は、既に知られているように、例え
ば、何らかのネットワークを介して、デジタル蓄積メデ
ィア(DSM)に蓄積されたMPEG符号化ビットスト
リームを取り出し(Retrieve)たり、或いはDSMに対し
てストリームを蓄積(Store)するためのコマンドや制御
方式を規定したものである。そして本実施の形態におい
ては、このDSM−CC方式がデジタル衛星放送システ
ムにおける伝送規格として採用されているものである。
そして、DSM−CC方式によりデータ放送サービス
(例えばGUI画面など)のコンテンツ(オブジェクト
の集合)を伝送するためには、コンテンツの記述形式を
定義しておく必要がある。本実施の形態では、この記述
形式の定義として先に述べたMHEGが採用されるもの
である。In the following description, the following is assumed. In the present embodiment, the satellite 2
When transmitting to the receiving equipment 3 via the
M-CC (Digital Storage Media Command and
Control: Digital Strage Media-Command and Con
trol) protocol. DSM-CC (MPEG
-Part6) method, as is known, for example, retrieves (Retrieves) an MPEG coded bit stream stored in a digital storage medium (DSM) via some network, or streams a stream to the DSM. Command and control method for storing (Store). In the present embodiment, the DSM-CC system is adopted as a transmission standard in a digital satellite broadcasting system.
In order to transmit a content (a set of objects) of a data broadcasting service (for example, a GUI screen) by the DSM-CC scheme, it is necessary to define a description format of the content. In the present embodiment, the above-described MHEG is adopted as the definition of the description format.
【0044】図5に示す地上局1の構成において、テレ
ビ番組素材登録システム31は、テレビ番組素材サーバ
6から得られた素材データをAVサーバ35に登録す
る。この素材データはテレビ番組送出システム39に送
られ、ここでビデオデータは例えばMPEG2方式で圧
縮され、オーディオデータは、例えばMPEG2オーデ
ィオ方式によりパケット化される。テレビ番組送出シス
テム39の出力はマルチプレクサ45に送られる。In the configuration of the ground station 1 shown in FIG. 5, the TV program material registration system 31 registers the material data obtained from the TV program material server 6 in the AV server 35. The material data is sent to the television program transmission system 39, where the video data is compressed by, for example, the MPEG2 system, and the audio data is packetized by, for example, the MPEG2 audio system. The output of the television program transmission system 39 is sent to the multiplexer 45.
【0045】また、楽曲素材登録システム32では、楽
曲素材サーバ7からの素材データ、つまりオーディオデ
ータを、MPEG2オーディオエンコーダ36A、及び
ATRACエンコーダ36Bに供給する。MPEG2オ
ーディオエンコーダ36A、ATRACエンコーダ36
Bでは、それぞれ供給されたオーディオデータについて
エンコード処理(圧縮符号化)を行った後、MPEGオ
ーディオサーバ40A及びATRACオーディオサーバ
40Bに登録させる。MPEGオーディオサーバ40A
に登録されたMPEGオーディオデータは、MPEGオ
ーディオ送出システム43Aに伝送されてここでパケッ
ト化された後、マルチプレクサ45に伝送される。AT
RACオーディオサーバ40Bに登録されたATRAC
データは、ATRACオーディオ送出システム43Bに
4倍速ATRACデータとして送られ、ここでパケット
化されてマルチプレクサ45に送出される。The music material registration system 32 supplies the material data from the music material server 7, that is, audio data, to the MPEG2 audio encoder 36A and the ATRAC encoder 36B. MPEG2 audio encoder 36A, ATRAC encoder 36
In B, the supplied audio data is encoded (compressed and encoded), and then registered in the MPEG audio server 40A and ATRAC audio server 40B. MPEG audio server 40A
Is transmitted to the MPEG audio transmission system 43A, packetized here, and then transmitted to the multiplexer 45. AT
ATRAC registered in RAC audio server 40B
The data is sent to the ATRAC audio transmission system 43B as 4 × speed ATRAC data, where it is packetized and transmitted to the multiplexer 45.
【0046】また、音声付加情報登録システム33で
は、音声付加情報サーバ8からの素材データである音声
付加情報を音声付加情報データベース37に登録する。
この音声付加情報データベース37に登録された音声付
加情報は、音声付加情報送出システム41に伝送され、
同様にして、ここでパケット化されてマルチプレクサ4
5に伝送される。In the additional audio information registration system 33, additional audio information, which is material data from the additional audio information server 8, is registered in the additional audio information database 37.
The additional audio information registered in the additional audio information database 37 is transmitted to the additional audio information transmission system 41,
Similarly, the packetized data from the multiplexer 4
5 is transmitted.
【0047】また、GUI用素材登録システム34で
は、GUIデータサーバ9からの素材データであるGU
Iデータを、GUI素材データベース38に登録する。Further, in the GUI material registration system 34, the GUI data
The I data is registered in the GUI material database 38.
【0048】GUI素材データベース38に登録された
GUI素材データは、GUIオーサリングシステム42
に伝送され、ここで、GUI画面、即ち図4にて述べた
「シーン」としての出力が可能なデータ形式となるよう
に処理が施される。The GUI material data registered in the GUI material database 38 is stored in the GUI authoring system 42.
Here, processing is performed so that the data format becomes a GUI screen, that is, a data format that can be output as a “scene” described in FIG.
【0049】つまり、GUIオーサリングシステム42
に伝送されてくるデータとしては、例えば、楽曲のダウ
ンロードのためのGUI画面であれば、アルバムジャケ
ットの静止画像データ、歌詞などのテキストデータ、更
には、操作に応じて出力されるべき音声データなどであ
る。上記した各データはいわゆるモノメディアといわれ
るが、GUIオーサリングシステム42では、MHEG
オーサリングツールを用いて、これらのモノメディアデ
ータを符号化して、これをオブジェクトとして扱うよう
にする。そして、例えば図4(b)にて説明したような
シーン(GUI画面)の表示態様と操作に応じた画像音
声の出力態様が得られるように上記オブジェクトの関係
を規定したシナリオ記述ファイル(スクリプト)と共に
MHEG−5のコンテンツを作成する。また、図4
(b)に示したようなGUI画面では、テレビ番組素材
サーバ6の素材データを基とする画像・音声データ(M
PEGビデオデータ、MPEGオーディオデータ)と、
楽曲素材サーバ7の楽曲素材データを基とするMPEG
オーディオデータ等も、GUI画面に表示され、操作に
応じた出力態様が与えられる。従って、上記シナリオ記
述ファイルとしては、上記GUIオーサリングシステム
42では、上記したテレビ番組素材サーバ6の素材デー
タを基とする画像・音声データ、楽曲素材サーバ7の楽
曲素材データを基とするMPEGオーディオデータ、更
には、音声付加情報サーバ8を基とする音声付加情報も
必要に応じてオブジェクトとして扱われて、MHEGの
スクリプトによる規定が行われる。That is, the GUI authoring system 42
For example, in the case of a GUI screen for downloading music, still image data of an album jacket, text data such as lyrics, audio data to be output in response to an operation, etc. It is. Each of the above-mentioned data is called a so-called mono-media, but in the GUI authoring system 42, the MHEG
Using an authoring tool, these mono-media data are encoded and handled as objects. Then, for example, a scenario description file (script) defining the relationship between the objects so that the display mode of the scene (GUI screen) and the output mode of image and sound according to the operation as described with reference to FIG. Together with the MHEG-5 content. FIG.
In the GUI screen as shown in (b), image / audio data (M
PEG video data, MPEG audio data)
MPEG based on music material data of music material server 7
Audio data and the like are also displayed on the GUI screen, and an output mode according to the operation is given. Therefore, as the scenario description file, in the GUI authoring system 42, the image / audio data based on the material data of the TV program material server 6 and the MPEG audio data based on the music material data of the music material server 7 are used. Further, the voice additional information based on the voice additional information server 8 is also treated as an object as required, and is defined by the MHEG script.
【0050】なお、GUIオーサリングシステム42か
ら伝送されるMHEGコンテンツのデータとしては、ス
クリプトファイル、及びオブジェクトとしての各種静止
画データファイルやテキストデータファイルなどとなる
が、静止画データは、例えばJPEG(Joint Photograp
h Experts Group)方式で圧縮された640×480ピク
セルのデータとされ、テキストデータは例えば800文
字以内のファイルとされる。The data of the MHEG content transmitted from the GUI authoring system 42 includes a script file, various still image data files and text data files as objects, and the still image data is, for example, JPEG (Joint). Photograp
h Experts Group), and the data is 640 × 480 pixels, and the text data is a file of, for example, 800 characters or less.
【0051】GUIオーサリングシステム42にて得ら
れたMHEGコンテンツのデータはDSM−CCエンコ
ーダ44に伝送される。DSM−CCエンコーダ44で
は、MPEG2フォーマットに従ったビデオ、オーディ
オデータのデータストリームに多重できる形式のトラン
スポートストリーム(以下TS(Transport Stream)とも
略す)に変換して、パケット化されてマルチプレクサ4
5に出力される。The data of the MHEG content obtained by the GUI authoring system 42 is transmitted to the DSM-CC encoder 44. The DSM-CC encoder 44 converts the data into a transport stream (hereinafter abbreviated as TS (Transport Stream)) in a format that can be multiplexed with a data stream of video and audio data according to the MPEG2 format, and packetizes the data.
5 is output.
【0052】マルチプレクサ45においては、テレビ番
組送出システム39からのビデオパケットおよびオーデ
ィオパケットと、MPEGオーディオ送出システム43
Aからのオーディオパケットと、ATRACオーディオ
送出システム43Bからの4倍速オーディオパケット
と、音声付加情報送出システム41からの音声付加情報
パケットと、GUIオーサリングシステム42からのG
UIデータパケットとが時間軸多重化されると共に、キ
ー情報サーバ10(図1)から出力されたキー情報に基
づいて暗号化される。In the multiplexer 45, the video and audio packets from the television program transmission system 39 and the MPEG audio transmission system 43
A, the 4 × speed audio packet from the ATRAC audio transmission system 43B, the audio additional information packet from the audio additional information transmission system 41, and the G packet from the GUI authoring system 42.
The UI data packet and the UI data packet are time-division multiplexed and encrypted based on the key information output from the key information server 10 (FIG. 1).
【0053】マルチプレクサ45の出力は電波送出シス
テム46に伝送され、ここで例えば誤り訂正符号の付
加、変調、及び周波数変換などの処理を施された後、ア
ンテナから衛星2に向けて送信出力するようにされる。The output of the multiplexer 45 is transmitted to the radio wave transmitting system 46, where the output is subjected to, for example, processing such as addition of an error correction code, modulation, and frequency conversion. To be.
【0054】1−4.送信フォーマット1-4. Transmission format
【0055】次に、DSM−CC方式に基づいて規定さ
れた本実施の形態の送信フォーマットについて説明す
る。図6は、地上局1から衛星2に送信出力される際の
データの一例を示している。なお、前述したように、こ
の図に示す各データは実際には時間軸多重化されている
ものである。また、この図では、図6に示すように、時
刻t1から時刻t2の間が1つのイベントとされ、時刻
t2から次のイベントとされる。ここでいうイベントと
は、例えば音楽番組のチャンネルであれば、複数楽曲の
ラインナップの組を変更する単位であり、時間的には3
0分或いは1時間程度となる。Next, the transmission format of the present embodiment defined based on the DSM-CC system will be described. FIG. 6 shows an example of data transmitted and output from the ground station 1 to the satellite 2. As described above, each data shown in this figure is actually time-division multiplexed. Further, in this figure, as shown in FIG. 6, one event is between time t1 and time t2, and the next event is from time t2. The event referred to here is, for example, a unit for changing a set of a lineup of a plurality of music pieces in the case of a channel of a music program.
It takes about 0 minutes or 1 hour.
【0056】図6に示すように、時刻t1から時刻t2
のイベントでは、通常の動画の番組放送で、所定の内容
A1を有する番組が放送されている。また、時刻t2か
ら始めるイベントでは、内容A2としての番組が放送さ
れている。この通常の番組で放送されているのは動画と
音声である。As shown in FIG. 6, from time t1 to time t2
In the event (1), a program having a predetermined content A1 is being broadcast in a program broadcast of a normal moving image. In an event starting from time t2, a program as content A2 is being broadcast. What is broadcast in this ordinary program is moving images and audio.
【0057】MPEGオーディオチャンネル(1)〜
(10)は、例えば、チャンネルCH1からCH10の
10チャンネル分用意される。このとき、各オーディオ
チャンネルCH1,CH2,CH3・・・・CH10で
は、1つのイベントが放送されている間は同一楽曲が繰
り返し送信される。つまり、時刻t1〜t2のイベント
の期間においては、オーディオチャンネルCH1では楽
曲B1が繰り返し送信され、オーディオチャンネルCH
2では楽曲C1が繰り返し送信され、以下同様に、オー
ディオチャンネルCH10では楽曲K1が繰り返し送信
されることになる。これは、その下に示されている4倍
速ATRACオーディオチャンネル(1)〜(10)に
ついても共通である。MPEG audio channel (1)-
(10) is prepared, for example, for ten channels CH1 to CH10. At this time, the same music is repeatedly transmitted on each of the audio channels CH1, CH2, CH3,... CH10 while one event is being broadcast. That is, during the event period from time t1 to time t2, the music B1 is repeatedly transmitted on the audio channel CH1, and the audio channel CH1 is transmitted.
2, the music C1 is repeatedly transmitted, and similarly, the music K1 is repeatedly transmitted on the audio channel CH10. This is common to the quadruple-speed ATRAC audio channels (1) to (10) shown below.
【0058】つまり、図6において、MPEGオーディ
オチャンネルと4倍速ATRACオーディオチャンネル
のチャンネル番号である( )内の数字が同じものは同
じ楽曲となる。また、音声付加情報のチャンネル番号で
ある( )内の数字は、同じチャンネル番号を有するオ
ーディオデータに付加されている音声付加情報である。
更に、GUIデータとして伝送される静止画データやテ
キストデータも各チャンネルごとに形成されるものであ
る。これらのデータは、図7(a)〜(d)に示すよう
にMPEG2のトランスポートパケット内で時分割多重
されて送信され、図7(e)〜(h)に示すようにして
IRD12内では各データパケットのヘッダ情報を用い
て再構築される。That is, in FIG. 6, those having the same number in parentheses, which are the channel numbers of the MPEG audio channel and the 4 × ATRAC audio channel, are the same music. The number in parentheses, which is the channel number of the additional audio information, is the additional audio information added to the audio data having the same channel number.
Still image data and text data transmitted as GUI data are also formed for each channel. These data are time-division multiplexed and transmitted in an MPEG2 transport packet as shown in FIGS. 7A to 7D, and are transmitted in the IRD 12 as shown in FIGS. 7E to 7H. It is reconstructed using the header information of each data packet.
【0059】また、上記図6及び図7に示した送信デー
タのうち、少なくとも、データサービス(インタラクテ
ィブ放送)に利用されるGUIデータは、DSM−CC
方式に則って論理的には次のようにして形成されるもの
である。ここでは、DSM−CCエンコーダ44から出
力されるトランスポートストリームのデータに限定して
説明する。In the transmission data shown in FIGS. 6 and 7, at least the GUI data used for the data service (interactive broadcasting) is the DSM-CC.
It is logically formed as follows according to the method. Here, the description is limited to the data of the transport stream output from the DSM-CC encoder 44.
【0060】図8(a)に示すように、DSM−CC方
式によって伝送される本実施の形態のデータ放送サービ
スは、Service Gatewayという名称のル
ートディレクトリの中に全て含まれる。Service
Gatewayに含まれるオブジェクトとしては、デ
ィレクトリ(Directory),ファイル(Fil
e),ストリーム(Stream),ストリームイベン
ト(Stream Event)などの種類が存在す
る。As shown in FIG. 8A, the data broadcasting service of the present embodiment transmitted by the DSM-CC system is all included in a root directory named Service Gateway. Service
Objects included in the Gateway include a directory (Directory) and a file (Fil).
e), a stream (Stream), and a stream event (Stream Event).
【0061】これらのうち、ファイルは静止画像、音
声、テキスト、更にはMHEGにより記述されたスクリ
プトなどの個々のデータファイルとされる。ストリーム
は例えば、他のデータサービスやAVストリーム(TV
番組素材としてのMPEGビデオデータ、オーディオデ
ータ、楽曲素材としてのMPEGオーディオデータ、A
TRACオーディオデータ等)にリンクする情報が含ま
れる。また、ストリームイベントは、同じくリンクの情
報と時刻情報が含まれる。ディレクトリは相互に関連す
るデータをまとめるフォルダである。Of these, files are individual data files such as still images, audio, text, and scripts described by MHEG. The stream is, for example, another data service or an AV stream (TV
MPEG video data and audio data as program material, MPEG audio data as music material, A
TRAC audio data). The stream event also includes link information and time information. A directory is a folder that stores related data.
【0062】そして、DSM−CC方式では、図8
(b)に示すようにして、これらの単位情報とServ
ice Gatewayをそれぞれオブジェクトという
単位と捉え、それぞれをBIOPメッセージという形式
に変換する。なお、本発明に関わる説明では、ファイ
ル,ストリーム,ストリームイベントの3つのオブジェ
クトの区別は本質的なものではないので、以下の説明で
はこれらをファイルとしてのオブジェクトに代表させて
説明する。In the DSM-CC system, FIG.
As shown in (b), these unit information and Serv
The Ice Gateway is regarded as a unit called an object, and each is converted into a format called a BIOP message. In the description relating to the present invention, the distinction between the three objects of file, stream, and stream event is not essential, and therefore, in the following description, these objects will be described as being represented by objects as files.
【0063】そして、DSM−CC方式では、図8
(c)に示すモジュールといわれるデータ単位を生成す
る。このモジュールは、図8(b)に示したBIOPメ
ッセージ化されたオブジェクトを1つ以上含むようにさ
れたうえで、BIOPヘッダが付加されて形成される可
変長のデータ単位であり、後述する受信側における受信
データのバッファリング単位となる。また、DSM−C
C方式としては、1モジュールを複数のオブジェクトに
より形成する場合の、オブジェクト間の関係については
特に規定、制限はされていない。つまり、極端なことを
いえば、全く関係の無いシーン間における2以上のオブ
ジェクトにより1モジュールを形成したとしても、DS
M−CC方式のもとでの規定に何ら違反するものではな
い。In the DSM-CC system, FIG.
A data unit called a module shown in (c) is generated. This module is a variable-length data unit formed by adding one or more objects converted into BIOP messages shown in FIG. 8B and adding a BIOP header thereto. It is the unit of buffering the received data on the side. Also, DSM-C
In the C method, when one module is formed by a plurality of objects, the relationship between the objects is not particularly defined or limited. In other words, at the extreme, even if one module is formed by two or more objects between scenes having no relation at all, DS
It does not violate the rules under the M-CC system.
【0064】このモジュールは、MPEG2フォーマッ
トにより規定されるセクションといわれる形式で伝送す
るために、図8(d)に示すように、機械的に「ブロッ
ク」といわれる原則固定長のデータ単位に分割される。
但し、モジュールにおける最後のブロックについては規
定の固定長である必要はないものとされている。このよ
うに、ブロック分割を行うのはMPEG2フォーマット
において、1セクションが4KBを越えてはならないと
いう規定があることに起因する。また、この場合には上
記ブロックとしてのデータ単位と、セクションとは同義
なものとなる。As shown in FIG. 8D, this module is mechanically divided into fixed-length data units called "blocks" as shown in FIG. 8D in order to transmit the data in a format called a section defined by the MPEG2 format. You.
However, the last block in the module does not need to have a prescribed fixed length. The reason why the block division is performed is that there is a rule in the MPEG2 format that one section must not exceed 4 KB. In this case, the data unit as a block and the section are synonymous.
【0065】このようにしてモジュールを分割して得た
ブロックは、図8(e)に示すようにしてヘッダが付加
されてDDB(Download Data Block)というメッセージ
の形式に変換される。The block obtained by dividing the module in this manner is converted into a DDB (Download Data Block) message format with a header added as shown in FIG. 8 (e).
【0066】また、上記DDBへの変換と並行して、D
SI(Download Server Initiate)及びDII(Download
Indication Information)という制御メッセージが生成
される。上記DSI及びDIIは、受信側(IRD1
2)で受信データからモジュールを取得する際に必要と
なる情報であり、DSIは主として、次に説明するカル
ーセル(モジュール)の識別子、カルーセル全体に関連
する情報(カルーセルが1回転する時間、カルーセル回
転のタイムアウト値)等の情報を有する。また、データ
サービスのルートディレクトリ(Service Ga
teway)の所在を知るための情報も有する(オブジ
ェクトカルーセル方式の場合)。In parallel with the conversion to the DDB,
SI (Download Server Initiate) and DII (Download
Indication Information) is generated. The DSI and DII are on the receiving side (IRD1
The information required when acquiring a module from the received data in 2), and the DSI mainly includes an identifier of the carousel (module) described below and information related to the entire carousel (time during which the carousel makes one rotation, carousel rotation). Timeout value). In addition, the root directory of the data service (Service Ga
The information also has information for knowing the location of the keyword (the case of the object carousel method).
【0067】DIIは、カルーセルに含まれるモジュー
ルごとに対応する情報であり、モジュールごとのサイ
ズ、バージョン、そのモジュールのタイムアウト値など
の情報を有する。DII is information corresponding to each module included in the carousel, and has information such as the size, version, and timeout value of each module.
【0068】そして、図8(f)に示すように、上記D
DB、DSI、DIIの3種類のメッセージをセクショ
ンのデータ単位に対応させて周期的に、かつ、繰り返し
送出するようにされる。これにより、受信機側では例え
ば目的のGUI画面(シーン)を得るのに必要なオブジ
ェクトが含まれているモジュールをいつでも受信できる
ようにされる。本明細書では、このような伝送方式を回
転木馬に例えて「カルーセル方式」といい、図8(f)
に示すようにして模式的に表されるデータ伝送形態をカ
ルーセルというものとする。また、「カルーセル方式」
としては、「データカルーセル方式」のレベルと「オブ
ジェクトカルーセル方式」のレベルとに分けられる。特
にオブジェクトカルーセル方式では、ファイル、ディレ
クトリ、ストリーム、サービスゲートウェイなどの属性
を持つオブジェクトをデータとしてカルーセルを用いて
転送する方式で、ディレクトリ構造を扱えることがデー
タカルーセル方式と大きく異なる。本実施の形態のシス
テムでは、オブジェクトカルーセル方式を採用するもの
とされる。Then, as shown in FIG.
Three types of messages, DB, DSI, and DII, are transmitted periodically and repeatedly in correspondence with the data unit of the section. As a result, the receiver can always receive, for example, a module including an object necessary for obtaining a target GUI screen (scene). In this specification, such a transmission method is referred to as a “carousel method” by comparing it to a carousel, and FIG.
A data transmission form schematically represented as shown in FIG. Also, "carousel method"
Are divided into a “data carousel method” level and an “object carousel method” level. In particular, the object carousel method is a method in which objects having attributes such as files, directories, streams, and service gateways are transferred as data using the carousel, and is largely different from the data carousel method in that the directory structure can be handled. The system of the present embodiment adopts the object carousel method.
【0069】また、上記のようにしてカルーセルにより
送信されるGUIデータ、つまり、図5のDSM−CC
エンコーダ44から出力されるデータとしては、トラン
スポートストリームの形態により出力される。このトラ
ンスポートストリームは例えば図9に示す構造を有す
る。図9(a)には、トランスポートストリームが示さ
れている。このトランスポートストリームとはMPEG
システムで定義されているビット列であり、図のように
188バイトの固定長パケット(トランスポートパケッ
ト)の連結により形成される。The GUI data transmitted by the carousel as described above, that is, the DSM-CC shown in FIG.
The data output from the encoder 44 is output in the form of a transport stream. This transport stream has, for example, the structure shown in FIG. FIG. 9A shows a transport stream. This transport stream is MPEG
This is a bit string defined by the system, and is formed by concatenation of fixed-length packets (transport packets) of 188 bytes as shown in the figure.
【0070】そして、各トランスポートパケットは、図
9(b)に示すようにヘッダと特定の個別パケットに付
加情報を含めるためのアダプテーションフィールドとパ
ケットの内容(ビデオ/オーディオデータ等)を表すペ
イロード(データ領域)とからなる。As shown in FIG. 9B, each transport packet has a header, an adaptation field for including additional information in a specific individual packet, and a payload (video / audio data or the like) indicating the contents of the packet (video / audio data, etc.). Data area).
【0071】ヘッダは、例えば実際には4バイトとさ
れ、図9(c)に示すように、先頭には必ず同期バイト
があるようにされ、これより後ろの所定位置にそのパケ
ットの識別情報であるPID(Packet_ID)、
スクランブルの有無を示すスクランブル制御情報、後続
するアダプテーションフィールドやペイロードの有無等
を示すアダプテーションフィールド制御情報が格納され
ている。The header is actually 4 bytes, for example. As shown in FIG. 9 (c), the header is always provided with a synchronization byte, and a predetermined position after the synchronization byte contains the identification information of the packet. A certain PID (Packet_ID),
It stores scramble control information indicating the presence or absence of scrambling, and adaptation field control information indicating the presence or absence of a subsequent adaptation field or payload.
【0072】これらの制御情報に基づいて、受信装置側
ではパケット単位でデスクランブルを行い、また、デマ
ルチプレクサによりビデオ/オーディオ/データ等の必
要パケットの分離・抽出を行うことができる。また、ビ
デオ/オーディオの同期再生の基準となる時刻情報を再
生することもここで行うことができる。Based on these pieces of control information, the receiving apparatus can descramble packets in packet units, and can use a demultiplexer to separate and extract necessary packets such as video / audio / data. In addition, time information serving as a reference for synchronous reproduction of video / audio can be reproduced here.
【0073】また、これまでの説明から分かるように、
1つのトランスポートストリームには複数チャンネル分
の映像/音声/データのパケットが多重されているが、
それ以外にPSI(Program Specific Information)とい
われる選局を司るための信号や、限定受信(個人の契約
状況により有料チャンネルの受信可不可を決定する受信
機能)に必要な情報(EMM/ECM)、EPGなどの
サービスを実現するためのSI(Service Information)
が同時に多重されている。ここでは、PSIについて説
明する。As can be seen from the above description,
Video / audio / data packets for a plurality of channels are multiplexed in one transport stream.
In addition, a signal for controlling channel selection called PSI (Program Specific Information), information (EMM / ECM) necessary for conditional access (reception function for deciding whether or not a pay channel can be received or not according to an individual contract situation), SI (Service Information) for realizing services such as EPG
Are multiplexed simultaneously. Here, PSI will be described.
【0074】PSIは、図10に示すようにして、4つ
のテーブルで構成されている。それぞれのテーブルは、
セクション形式というMPEG Systemに準拠し
た形式で表されている。図10(a)には、NIT(Net
work Informataion Table)及びCAT(Conditional Acc
ess Table)のテーブルが示されている。NITは、全キ
ャリアに同一内容が多重されている。キャリアごとの伝
送諸元(偏波面、キャリア周波数、畳み込みレート等)
と、そこに多重されているチャンネルのリストが記述さ
れている。NITのPIDとしては、PID=0x0010と
されている。The PSI is composed of four tables as shown in FIG. Each table is
It is expressed in a section format, which is compliant with the MPEG System. FIG. 10A shows NIT (Net
work Information Table) and CAT (Conditional Acc
ess Table) is shown. In the NIT, the same content is multiplexed on all carriers. Transmission specifications for each carrier (polarization plane, carrier frequency, convolution rate, etc.)
And a list of channels multiplexed there. The PID of the NIT is PID = 0x0010.
【0075】CATもまた、全キャリアに同一内容が多
重される。限定受信方式の識別と契約情報等の個別情報
であるEMM(Entitlement Management Message)パケッ
トのPIDが記述されている。PIDとしては、PID
=0x0001により示される。The CAT also has the same content multiplexed on all carriers. The PID of an EMM (Entitlement Management Message) packet, which is identification information of the conditional access system and individual information such as contract information, is described. As PID, PID
= 0x0001.
【0076】図10(b)には、キャリアごとに固有の
内容を有する情報として、PATが示される。PATに
は、そのキャリア内のチャンネル情報と、各チャンネル
の内容を表すPMTのPIDが記述されている。PID
としては、PID=0x0000により示される。FIG. 10B shows a PAT as information having specific contents for each carrier. The PAT describes channel information in the carrier and the PID of the PMT representing the contents of each channel. PID
Is indicated by PID = 0x0000.
【0077】また、キャリアにおけるチャンネルごとの
情報として、図10(c)に示すPMT(Program Map T
able)のテーブルを有する。PMTは、チャンネル別の
内容が多重されている。例えば、図10(d)に示すよ
うな、各チャンネルを構成するコンポーネント(ビデオ
/オーディオ等)と、デスクランブルに必要なECM(E
ncryption Control Message)パケットのPIDが記述さ
れているPMTのPIDは、PATにより指定される。As information for each channel in the carrier, a PMT (Program Map T
able) table. In the PMT, content for each channel is multiplexed. For example, as shown in FIG. 10D, components (such as video / audio) constituting each channel and an ECM (E
The PID of the PMT in which the PID of the (ncryption Control Message) packet is described is specified by the PAT.
【0078】1−5.IRD 続いて、受信設備3に備えられるIRD12の一構成例
について図11を参照して説明する。1-5. IRD Next, an example of the configuration of the IRD 12 provided in the receiving facility 3 will be described with reference to FIG.
【0079】この図に示すIRD12において、入力端
子T1には、パラボラアンテナ11のLNB15により
所定の周波数に変換された受信信号を入力してチューナ
/フロントエンド部51に供給する。チューナ/フロン
トエンド部51では、CPU(Central Processing Uni
t)80からの伝送諸元等を設定した設定信号に基づい
て、この設定信号により決定されるキャリア(受信周波
数)を受信して、例えばビタビ復調処理や誤り訂正処理
等を施すことで、トランスポートストリームを得るよう
にされる。チューナ/フロントエンド部51にて得られ
たトランスポートストリームは、デスクランブラ52に
対して供給される。また、チューナ/フロントエンド部
51では、トランスポートストリームからPSIのパケ
ットを取得し、その選局情報を更新すると共に、トラン
スポートストリームにおける各チャンネルのコンポーネ
ントPIDを得て、例えばCPU80に伝送する。CP
U80では、取得したPIDを受信信号処理に利用する
ことになる。In the IRD 12 shown in this figure, a reception signal converted to a predetermined frequency by the LNB 15 of the parabolic antenna 11 is input to the input terminal T 1 and supplied to the tuner / front end unit 51. In the tuner / front end unit 51, a CPU (Central Processing Uni
t) On the basis of a setting signal in which transmission parameters and the like are set from 80, a carrier (reception frequency) determined by the setting signal is received and subjected to, for example, Viterbi demodulation processing or error correction processing, thereby achieving a transformer. You get to get the port stream. The transport stream obtained by the tuner / front end unit 51 is supplied to a descrambler 52. Further, the tuner / front end unit 51 obtains a PSI packet from the transport stream, updates the channel selection information, obtains the component PID of each channel in the transport stream, and transmits it to, for example, the CPU 80. CP
In U80, the acquired PID is used for received signal processing.
【0080】デスクランブラ52では、ICカード65
に記憶されているデスクランブルキーデータをCPU8
0を介して受け取ると共に、CPU80によりPIDが
設定される。そして、このデスクランブルキーデータと
PIDとに基づいてデスクランブル処理を実行し、トラ
ンスポート部53に対して伝送する。In the descrambler 52, the IC card 65
The descramble key data stored in the CPU 8
0, and the PID is set by the CPU 80. Then, a descrambling process is executed based on the descrambling key data and the PID, and transmitted to the transport unit 53.
【0081】トランスポート部53は、デマルチプレク
サ70と、例えばDRAM等により構成されるキュー
(Queue)71とからなる。キュー(Queue)71は、モ
ジュール単位に対応した複数のメモリ領域が列となるよ
うにして形成されているものとされ、例えば本実施の形
態では、32列のメモリ領域が備えられる。つまり、最
大で32モジュールの情報を同時に格納することができ
る。The transport section 53 comprises a demultiplexer 70 and a queue 71 composed of, for example, a DRAM. The queue (Queue) 71 is formed such that a plurality of memory areas corresponding to each module are arranged in columns. For example, in the present embodiment, a memory area of 32 columns is provided. That is, information of up to 32 modules can be stored simultaneously.
【0082】デマルチプレクサ70の概略的動作として
は、CPU80のDeMUXドライバ82により設定さ
れたフィルタ条件に従って、デスクランブラ52から供
給されたトランスポートストリームから必要なトランス
ポートパケットを分離し、必要があればキュー71を作
業領域として利用して、先に図7(e)〜(h)により
示したような形式のデータを得て、それぞれ必要な機能
回路部に対して供給する。デマルチプレクサ70にて分
離されたMPEGビデオデータは、MPEG2ビデオデ
コーダ55に対して入力され、MPEGオーディオデー
タは、MPEGオーディオデコーダ54に対して入力さ
れる。これらデマルチプレクサ70により分離されたM
PEGビデオ/オーディオデータの個別パケットは、P
ES(Packetized Elementary Stream)と呼ばれる形式で
それぞれのデコーダに入力される。The general operation of the demultiplexer 70 is as follows. According to the filter conditions set by the DeMUX driver 82 of the CPU 80, necessary transport packets are separated from the transport stream supplied from the descrambler 52. By using the queue 71 as a work area, data in the format shown in FIGS. The MPEG video data separated by the demultiplexer 70 is input to the MPEG2 video decoder 55, and the MPEG audio data is input to the MPEG audio decoder 54. M separated by these demultiplexers 70
The individual packet of PEG video / audio data is P
The data is input to each decoder in a format called ES (Packetized Elementary Stream).
【0083】また、トランスポートストリームにおける
MHEGコンテンツのデータについては、デマルチプレ
クサ70によりトランスポートストリームからトランス
ポートパケット単位で分離抽出されながらキュー71の
所要のメモリ領域に書き込まれていくことで、モジュー
ル単位にまとめられるようにして形成される。そして、
このモジュール単位にまとめられたMHEGコンテンツ
のデータは、CPU80の制御によってデータバスを介
して、メインメモリ90内のDSM−CCバッファ91
に書き込まれて保持される。The MHEG content data in the transport stream is separated and extracted from the transport stream in transport packet units by the demultiplexer 70 and written into a required memory area of the queue 71, so that the module unit It is formed so that it may be put together. And
The data of the MHEG contents organized in units of the module is transmitted to the DSM-CC buffer 91 in the main memory 90 via the data bus under the control of the CPU 80.
Is written and held.
【0084】また、トランスポートストリームにおける
4倍速ATRACデータ(圧縮オーディオデータ)も、
例えばトランスポートパケット単位で必要なデータがデ
マルチプレクサ70により分離抽出されてIEEE13
94インターフェイス60に対して出力される。また、
IEEE1394インターフェイス60を介した場合に
は、オーディオディオデータの他、ビデオデータ及び各
種コマンド信号等を送出することも可能とされる。Further, 4 × speed ATRAC data (compressed audio data) in the transport stream is also
For example, data necessary for each transport packet is separated and extracted by the demultiplexer 70, and the
Output to the 94 interface 60. Also,
Through the IEEE 1394 interface 60, it is possible to transmit video data and various command signals in addition to audio audio data.
【0085】PESとしての形式によるMPEGビデオ
データが入力されたMPEG2ビデオデコーダ55で
は、メモリ55Aを作業領域として利用しながらMPE
G2フォーマットに従って復号化処理を施す。復号化さ
れたビデオデータは、表示処理部58に供給される。In the MPEG2 video decoder 55 to which the MPEG video data in the PES format has been input, the MPEG5 video decoder 55
The decoding process is performed according to the G2 format. The decoded video data is supplied to the display processing unit 58.
【0086】表示処理部58には、上記MPEG2ビデ
オデコーダ55から入力されたビデオデータと、後述す
るようにしてメインメモリ90のMHEGバッファ92
にて得られるデータサービス用のGUI画面等のビデオ
データが入力される。表示処理部58では、このように
して入力されたビデオデータについて所要の信号処理を
施して、所定のテレビジョン方式によるアナログオーデ
ィオ信号に変換してアナログビデオ出力端子T2に対し
て出力する。これにより、アナログビデオ出力端子T2
とモニタ装置14のビデオ入力端子とを接続すること
で、例えば先に図4に示したような表示が行われる。The display processing unit 58 stores the video data input from the MPEG2 video decoder 55 and the MHEG buffer 92 of the main memory 90 as described later.
The video data such as a GUI screen for a data service obtained by the above is input. The display processing unit 58 performs necessary signal processing on the video data thus input, converts the video data into an analog audio signal according to a predetermined television system, and outputs the analog audio signal to the analog video output terminal T2. Thereby, the analog video output terminal T2
By connecting the monitor and the video input terminal of the monitor device 14, for example, the display as shown in FIG. 4 is performed.
【0087】また、PESによるMPEGオーディオデ
ータが入力されるMPEG2オーディオデコーダ54で
は、メモリ54Aを作業領域として利用しながらMPE
G2フォーマットに従って復号化処理を施す。復号化さ
れたオーディオデータは、D/Aコンバータ56及び光
デジタル出力インターフェイス59に対して供給され
る。In the MPEG2 audio decoder 54 to which the MPEG audio data by the PES is input, the MPEG4 audio decoder 54 uses the memory 54A as a work area while using the MPE.
The decoding process is performed according to the G2 format. The decoded audio data is supplied to the D / A converter 56 and the optical digital output interface 59.
【0088】D/Aコンバータ56では、入力されたオ
ーディオデータについてアナログ音声信号に変換してス
イッチ回路57に出力する。スイッチ回路57では、ア
ナログオーディオ出力端子T3又はT4の何れか一方に
対してアナログ音声信号を出力するように信号経路の切
換を行う。ここでは、アナログオーディオ出力端子T3
はモニタ装置14の音声入力端子と接続されるために設
けられているものとされる。また、アナログオーディオ
出力端子T4はダウンロードした楽曲をアナログ信号に
より出力するための端子とされる。また、光デジタル出
力インターフェイス59では、入力されたデジタルオー
ディオデータを光デジタル信号に変換して出力する。こ
の場合、光デジタル出力インターフェイス59は、例え
ばIEC958に準拠する。The D / A converter 56 converts the input audio data into an analog audio signal and outputs it to the switch circuit 57. The switch circuit 57 switches the signal path so as to output an analog audio signal to one of the analog audio output terminals T3 and T4. Here, the analog audio output terminal T3
Is provided to be connected to the audio input terminal of the monitor device 14. The analog audio output terminal T4 is a terminal for outputting the downloaded music by an analog signal. The optical digital output interface 59 converts the input digital audio data into an optical digital signal and outputs it. In this case, the optical digital output interface 59 complies with, for example, IEC958.
【0089】メインメモリ90は、CPU80が各種制
御処理を行う際の作業領域として利用されるものであ
る。そして、本実施の形態では、このメインメモリ90
において、前述したDSM−CCバッファ91と、MH
EGバッファ92としての領域が割り当てられるように
なっている。MHEGバッファ92には、MHEG方式
によるスクリプトの記述に従って生成された画像データ
(例えばGUI画面の画像データ)を生成するための作
業領域とされ、ここで生成された画像データはバスライ
ンを介して表示処理部58に供給される。The main memory 90 is used as a work area when the CPU 80 performs various control processes. In the present embodiment, the main memory 90
In the above, the DSM-CC buffer 91 and the MH
An area as the EG buffer 92 is allocated. The MHEG buffer 92 is a work area for generating image data (for example, image data of a GUI screen) generated according to the description of the script in the MHEG method, and the generated image data is displayed via a bus line. It is supplied to the processing unit 58.
【0090】CPU80は、IRD12における全体制
御を実行する。このなかには、デマルチプレクサ70に
おけるデータ分離抽出についての制御も含まれる。ま
た、獲得したMHEGコンテンツのデータについてデコ
ード処理を施すことで、スクリプトの記述内容に従って
GUI画面(シーン)を構成して出力するための処理も
実行する。The CPU 80 executes the overall control in the IRD 12. This includes control on data separation and extraction in the demultiplexer 70. In addition, by performing decoding processing on the acquired MHEG content data, processing for configuring and outputting a GUI screen (scene) in accordance with the description content of the script is also executed.
【0091】このため、本実施の形態のCPU80とし
ては、主たる制御処理を実行する制御処理部81に加
え、例えば少なくとも、DeMUXドライバ82、DS
M−CCデコーダブロック83、及びMHEGデコーダ
ブロック84が備えられる。本実施の形態では、このう
ち、少なくともDSM−CCデコーダブロック83及び
MHEGデコーダブロック84については、ソフトウェ
アにより構成される。DeMUXドライバ82は、入力
されたトランスポートストリームのPIDに基づいてデ
マルチプレクサ70におけるフィルタ条件を設定する。
DSM−CCデコーダブロック83は、DSM−Man
agerとしての機能を有するものであり、DSM−C
Cバッファ91に格納されているモジュール単位のデー
タについて、MHEGコンテンツのデータに再構築す
る。また、MHEGデコーダブロック84からのアクセ
スに従って所要のDSM−CCデコード等に関連する処
理を実行する。For this reason, the CPU 80 of the present embodiment includes, for example, at least a DeMUX driver 82 and a DS
An M-CC decoder block 83 and an MHEG decoder block 84 are provided. In the present embodiment, at least the DSM-CC decoder block 83 and the MHEG decoder block 84 are configured by software. The DeMUX driver 82 sets a filter condition in the demultiplexer 70 based on the PID of the input transport stream.
The DSM-CC decoder block 83 has a DSM-Man
It has a function as an ager, and DSM-C
The module unit data stored in the C buffer 91 is reconstructed into MHEG content data. Further, according to the access from the MHEG decoder block 84, a process related to a required DSM-CC decoding or the like is executed.
【0092】MHEGデコーダブロック84は、DSM
−CCデコーダブロック83により得られたMHEGコ
ンテンツのデータ、つまり、DSM−CCバッファ91
にて得られているMHEGコンテンツのデータにアクセ
スして、シーン出力のためのデコード処理を行う。つま
り、そのMHEGコンテンツのスクリプトファイルによ
り規定されているオブジェクト間の関係を実現していく
ことで、シーンを形成するものである。この際、シーン
としてGUI画面を形成するのにあたっては、MHEG
バッファ92を利用して、ここで、スクリプトファイル
の内容に従ってGUI画面の画像データを生成するよう
にされる。The MHEG decoder block 84 has a DSM
-Data of the MHEG content obtained by the CC decoder block 83, that is, the DSM-CC buffer 91
To access the data of the MHEG content obtained in the above, and perform decoding processing for scene output. That is, a scene is formed by realizing the relationship between objects defined by the script file of the MHEG content. At this time, when forming a GUI screen as a scene, the MHEG
The buffer 92 is used to generate the GUI screen image data in accordance with the contents of the script file.
【0093】DSM−CCデコーダブロック83及びM
HEGデコーダブロック84間のインターフェイスに
は、U−U API(Application Portability Interfa
ce)が採用される。U−U APIは、DSM Man
agerオブジェクト(DSMの機能を実現するサーバ
オブジェクト)にアクセスするためのインターフェイス
であり、これにより、Service Gatewa
y,Directory,File,Stream,S
tream Eventなどのオブジェクトに対する操
作を行う。クライアントオブジェクトは、このAPIを
使用することによって、これらのオブジェクトに対して
操作を行うことができる。DSM-CC decoder block 83 and M
The interface between the HEG decoder blocks 84 includes a UU API (Application Portability Interface).
ce) is adopted. The UU API is DSM Man
An interface for accessing an ager object (a server object that realizes the function of the DSM).
y, Directory, File, Stream, S
An operation is performed on an object such as a stream event. The client object can operate on these objects by using this API.
【0094】ここで、CPU80の制御によりトランス
ポートストリームから1シーンを形成するのに必要な目
的のオブジェクトを抽出するための動作例について説明
しておく。Here, an operation example for extracting a target object necessary for forming one scene from the transport stream under the control of the CPU 80 will be described.
【0095】DSM−CCでは、トランスポートストリ
ーム中のオブジェクトの所在を示すのにIOR(Interop
erable Object Reference)が使用される。IORには、
オブジェクトを見つけ出すための力ルーセルに対応する
識別子、オブジェクトの含まれるモジュールの識別子
(以下module_idと表記)、1つのモジュール
中でオブジェクトを特定する識別子(以下object
_keyと表記)のほかに、オブジェクトの含まれるモ
ジュールの情報を持つDIIを識別するためのタグ(a
ssociation_tag)情報を含んでいる。ま
た、モジュール情報を持つDIIには、1つ以上のモジ
ュールそれぞれについてのmodule_id、モジュ
ールの大きさ、バージョンといった情報と、そのモジュ
ールを識別するためのタグ(association_
tag)情報を含んでいる。In the DSM-CC, an IOR (Interop) is used to indicate the location of an object in a transport stream.
erable Object Reference) is used. In the IOR,
An identifier corresponding to a force ruthel for finding an object, an identifier of a module including the object (hereinafter, referred to as module_id), and an identifier for specifying an object in one module (hereinafter, object)
_Key), and a tag (a) for identifying a DII having information on a module including the object.
association_tag) information. The DII having module information includes information such as module_id, module size, and version for each of one or more modules, and a tag (association_id) for identifying the module.
tag) information.
【0096】トランスポートストリームから抜き出され
たIORがCPU80において識別された場合に、その
IORで示されたオブジェクトを受信、分離して得るプ
ロセスは、例えば次のようになる。 (Pr1) CPU80のDeMUXドライバ82で
は、IORのassociation_tagと同じ値
を持つエレメンタリーストリーム(以下ESと表記)
を、カルーセルにおけるPMTのESループから探し出
してPIDを得る。このPIDを持つESにDIIが含
まれていることになる。 (Pr2) このPIDとtable_id_exte
nsionとをフィルタ条件としてデマルチプレクサ7
0に対して設定する。これにより、デマルチプレクサ7
0では、DIIを分離してCPU80に対して出力す
る。 (Pr3) DIIの中で、先のIORに含まれていた
module_idに相当するモジュールのassoc
iation_tagを得る。 (Pr4) 上記association_tagと同
じ値を有するESを、PMTのESループ(カルーセ
ル)から探し出し、PIDを得る。このPIDを有する
ESに目的とするモジュールが含まれる。 (Pr5) 上記PIDとmodule_idとをフィ
ルタ条件として設定して、デマルチプレクサ70による
フィルタリングを行う。このフィルタ条件に適合して分
離抽出されたトランスポートパケットがキュー71の所
要のメモリ領域(列)に格納されていくことで、最終的
には、目的のモジュールが形成される。 (Pr6) 先のIORに含まれていたobject_
keyに相当するオブジェクトをこのモジュールから抜
き出す。これが目的とするオブジェクトになる。このモ
ジュールから抜き出されたオブジェクトは、例えば、D
SM−CCバッファ91の所定の領域に書き込みが行わ
れる。 例えば、上記動作を繰り返し、目的とするオブジェクト
を集めてDSM−CCバッファ91に格納していくこと
で、必要とされるシーンを形成するMHEGコンテンツ
が得られることになる。When the IOR extracted from the transport stream is identified in the CPU 80, the process of receiving and separating the object indicated by the IOR is as follows, for example. (Pr1) In the DeMUX driver 82 of the CPU 80, an elementary stream having the same value as the association_tag of the IOR (hereinafter, referred to as ES)
From the ES loop of the PMT in the carousel to get the PID. The ES having this PID includes DII. (Pr2) This PID and table_id_exte
demultiplexer 7 with nsion as a filter condition
Set to 0. Thereby, the demultiplexer 7
At 0, DII is separated and output to CPU 80. (Pr3) Assoc of module corresponding to module_id included in the previous IOR in DII
Get the iation_tag. (Pr4) An ES having the same value as the association_tag is searched for from the ES loop (carousel) of the PMT to obtain a PID. The target module is included in the ES having this PID. (Pr5) The PID and the module_id are set as filter conditions, and filtering is performed by the demultiplexer 70. The transport module separated and extracted according to the filter condition is stored in a required memory area (column) of the queue 71, so that a target module is finally formed. (Pr6) object_ included in the previous IOR
An object corresponding to the key is extracted from this module. This is the target object. The object extracted from this module is, for example, D
Writing is performed in a predetermined area of the SM-CC buffer 91. For example, by repeating the above operation and collecting and storing target objects in the DSM-CC buffer 91, MHEG content that forms a required scene can be obtained.
【0097】マンマシンインターフェイス61では、リ
モートコントローラ64から送信されてきたコマンド信
号を受信してCPU80に対して伝送する。CPU80
では、受信したコマンド信号に応じた機器の動作が得ら
れるように、所要の制御処理を実行する。The man-machine interface 61 receives the command signal transmitted from the remote controller 64 and transmits it to the CPU 80. CPU80
Then, necessary control processing is executed so that the operation of the device according to the received command signal can be obtained.
【0098】ICカードスロット62にはICカード6
5が挿入される。そして、この挿入されたICカード6
5に対してCPU80によって情報の書き込み及び読み
出しが行われる。The IC card slot 62 has an IC card 6
5 is inserted. Then, the inserted IC card 6
5 is written and read by the CPU 80.
【0099】モデム63は、電話回線4を介して課金サ
ーバ5と接続されており、CPU80の制御によってI
RD12と課金サーバ5との通信が行われるように制御
される。[0099] The modem 63 is connected to the accounting server 5 via the telephone line 4, and is controlled by the CPU 80.
Control is performed such that communication between the RD 12 and the billing server 5 is performed.
【0100】ここで、上記構成によるIRD12におけ
るビデオ/オーディオソースの信号の流れを、図4によ
り説明した表示形態に照らし合わせながら補足的に説明
する。図4(a)に示すようにして、通常の番組を出力
する場合には、入力されたトランスポートストリームか
ら必要な番組のMPEGビデオデータとMPEGオーデ
ィオデータとが抽出されて、それぞれ復号化処理が施さ
れる。そして、このビデオデータとMPEGオーディオ
データが、それぞれアナログビデオ出力端子T2と、ア
ナログオーディオ出力端子T3に出力されることで、モ
ニタ装置14では、放送番組の画像表示と音声出力が行
われる。Here, the flow of the signal of the video / audio source in the IRD 12 having the above configuration will be supplementarily described with reference to the display form described with reference to FIG. As shown in FIG. 4A, when a normal program is output, MPEG video data and MPEG audio data of a required program are extracted from an input transport stream, and decoding processing is performed for each. Will be applied. The video data and the MPEG audio data are output to the analog video output terminal T2 and the analog audio output terminal T3, respectively, so that the monitor device 14 performs image display and audio output of the broadcast program.
【0101】また、図4(b)に示したGUI画面を出
力する場合には、入力されたトランスポートストリーム
から、このGUI画面(シーン)に必要なMHEGコン
テンツのデータをトランスポート部53により分離抽出
してDSM−CCバッファ91に取り込む。そして、こ
のデータを利用して、前述したようにDSM−CCデコ
ーダブロック83及びMHEGデコーダブロック84が
機能することで、MHEGバッファ92にてシーン(G
UI画面)の画像データが作成される。そして、この画
像データが表示処理部58を介してアナログビデオ出力
端子T2に供給されることで、モニタ装置14にはGU
I画面の表示が行われる。When outputting the GUI screen shown in FIG. 4B, the MHEG content data necessary for the GUI screen (scene) is separated from the input transport stream by the transport unit 53. It is extracted and taken into the DSM-CC buffer 91. Using the data, the DSM-CC decoder block 83 and the MHEG decoder block 84 function as described above, so that the scene (G
The image data of the UI screen is created. The image data is supplied to the analog video output terminal T2 via the display processing unit 58, so that the
The I screen is displayed.
【0102】また、図4(b)に示したGUI画面上で
楽曲のリスト21Bにより楽曲が選択され、その楽曲の
オーディオデータを試聴する場合には、この楽曲のMP
EGオーディオデータがデマルチプレクサ70により得
られる。そして、このMPEGオーディオデータが、M
PEGオーディオデコーダ54、D/Aコンバータ、ス
イッチ回路57、アナログオーディオ出力端子T3を介
してアナログ音声信号とされてモニタ装置14に対して
出力される。When a tune is selected from the tune list 21B on the GUI screen shown in FIG. 4B and the audio data of the tune is previewed, the MP of the tune is selected.
EG audio data is obtained by the demultiplexer 70. Then, the MPEG audio data is M
An analog audio signal is output to the monitor device 14 via the PEG audio decoder 54, the D / A converter, the switch circuit 57, and the analog audio output terminal T3.
【0103】また、図4(b)に示したGUI画面上で
ダウンロードボタン28が押されてオーディオデータを
ダウンロードする場合には、ダウンロードすべき楽曲の
オーディオデータがデマルチプレクサ70により抽出さ
れてアナログオーディオ出力端子T4、光デジタル出力
インターフェイス59、またはIEEE1394インタ
ーフェイス60に出力される。When the download button 28 is pressed on the GUI screen shown in FIG. 4B to download audio data, the audio data of the music to be downloaded is extracted by the demultiplexer 70, and the analog audio is downloaded. The signal is output to the output terminal T4, the optical digital output interface 59, or the IEEE 1394 interface 60.
【0104】ここで、特にIEEE1394インターフ
ェイス60に対して、図2に示したIEEE1394対
応のMDレコーダ/プレーヤ13Aが接続されている場
合には、デマルチプレクサ70ではダウンロード楽曲の
4倍速ATRACデータが抽出され、IEEE1394
インターフェイス60を介してMDレコーダ/プレーヤ
13Aに装填されているディスクに対して記録が行われ
る。また、この際には、例えばJPEG方式で圧縮され
たアルバムジャケットの静止画データ、歌詞やアーティ
ストのプロフィールなどのテキストデータもデマルチプ
レクサ70においてトランスポートストリームから抽出
され、IEEE1394インターフェイス60を介して
MDレコーダ/プレーヤ13Aに転送される。MDレコ
ーダ/プレーヤ13Aでは、装填されているディスクの
所定の領域に対して、これら静止画データ、テキストデ
ータを記録することができるようになっている。When the IEEE 1394 interface 60 is connected to the IEEE 1394-compatible MD recorder / player 13A shown in FIG. , IEEE 1394
Recording is performed on the disk loaded in the MD recorder / player 13A via the interface 60. At this time, for example, still image data of the album jacket compressed in the JPEG format, text data such as lyrics and artist profile are also extracted from the transport stream by the demultiplexer 70, and are output to the MD recorder via the IEEE 1394 interface 60. / Player 13A. The MD recorder / player 13A can record these still image data and text data in a predetermined area of the loaded disc.
【0105】2.本発明に至った背景 このようにDSM−CC方式を伝送規格として採用した
本実施の形態のデジタル衛星放送システムでは、受信装
置、つまりIRDのタイプとして、受信バッファの構成
の点から2種類に分けることができる。2. Background of the Invention As described above, in the digital satellite broadcasting system of the present embodiment employing the DSM-CC system as a transmission standard, the type of the receiving device, that is, the type of the IRD is divided into two types in terms of the configuration of the receiving buffer. be able to.
【0106】1つは、IRDが、データサービス(GU
I画面表示出力)対応のフラッシュメモリやハードディ
スクドライバなどの大容量の受信バッファを有する構成
のものである。このような構成では、放送されているデ
ータサービス(MHEGコンテンツ)全体を一度に受信
して、受信バッファに保持させる。これにより、一旦デ
ータサービスを受信して取り込んだ後は、MHEGによ
るどのシーン(GUI画面)についても、メモリアクセ
スの待ち時間のみ待機するだけで即座に表示出力させる
ことが可能になる。つまり、GUI画面(シーン)の切
換のための操作をユーザが行ったような場合にも、次の
シーンがほぼ直ぐさま表示されることになる。このよう
な場合、デマルチプレクサのフィルタ条件の切り換えに
よる多少のオーバーヘッドは、GUI画面の表示に関し
ては特に問題となるものではない。One is that the IRD uses a data service (GU).
It has a large-capacity reception buffer such as a flash memory or a hard disk driver compatible with (I-screen display output). In such a configuration, the entire data service (MHEG content) being broadcast is received at once, and is held in the reception buffer. As a result, once the data service is received and captured, any scene (GUI screen) by MHEG can be immediately displayed and output only by waiting for the memory access wait time. That is, even when the user performs an operation for switching the GUI screen (scene), the next scene is displayed almost immediately. In such a case, a slight overhead due to the switching of the filter condition of the demultiplexer does not cause any particular problem in displaying the GUI screen.
【0107】もう1つは、IRDのコストを下げるなど
の理由から、上記のような大容量の受信バッファを持た
ないものである。先に説明した本実施の形態のIRD1
2がこれに相当する。この場合、データ放送サービス全
体のデータをバッファリングすることができず、データ
放送のデータを受信する受信単位であるモジュールのい
くつかがバッファリングできるだけの受信バッファしか
持たない。図11に示したIRD12では、この受信バ
ッファはキュー71に相当し、前述のようにモジュール
がバッファリングできるメモリ領域が32列設けられて
いるのみである。このようなIRDでは、逆に言えば、
モジュ−ルの大きさは受信機のバッファメモリーサイズ
を上回ることはできない。このため、データサービス全
体がいくつかのモジュールの集合で構成されることにな
り、その時々で表示に必要なモジュールだけを受信する
などの手順が必要になってくる。前述したオブジェクト
を抽出するための手順(Pr1)〜(Pr6)は、この
ような大容量の受信バッファを有さないIRDの構成に
対応したものである。The other is that it does not have a large-capacity reception buffer as described above, for the reason of reducing the cost of the IRD. IRD 1 of the present embodiment described above
2 corresponds to this. In this case, data of the entire data broadcasting service cannot be buffered, and some of the modules, which are reception units for receiving data of the data broadcasting, have only a reception buffer that can buffer the data. In the IRD 12 shown in FIG. 11, the reception buffer corresponds to the queue 71, and has only 32 rows of memory areas in which modules can be buffered as described above. In such an IRD, conversely,
The size of the module cannot exceed the buffer memory size of the receiver. For this reason, the entire data service is composed of a set of several modules, and a procedure such as receiving only the modules necessary for display at each time is required. The procedures (Pr1) to (Pr6) for extracting the object described above correspond to the configuration of the IRD having no such large-capacity reception buffer.
【0108】ここで、図14に、MHEG方式に則った
データサービスとしてのファイル(MHEG appl
ication file)のディレクトリ構造例を示
す。前述したようにオブジェクトカルーセル方式は、こ
のディレクトリ構造を扱えることに特徴を有する。通
常、Service Domainの入り口となる(M
HEG application file)は、必ず、
Service Gatewayの直下にある、app
0/startupというファイルとなる。基本的に
は、Service Domain(Service
Gateway)の下にapplication di
rectory(app0,app1・・・appN)
があり、その下にstartupといわれるアプリケー
ション・ファイルと、applicationを構成す
る各sceneのdirectory(scene0,
scene1・・・)があるようにされる。更にsce
ne directoryの下には、MHEG sce
ne fileとsceneを構成する各conten
t fileがおかれることとしている。Here, FIG. 14 shows a file (MHEG appl) as a data service conforming to the MHEG method.
3 shows an example of a directory structure of an application file. As described above, the object carousel method is characterized in that it can handle this directory structure. Usually the entrance to Service Domain (M
HEG application file)
The app directly below the Service Gateway
0 / startup. Basically, Service Domain (Service
Application) under Gateway)
repository (app0, app1,..., appN)
And an application file called “startup” under the directory and a directory (scene0, scene0,
scene1...). More sce
The MHEG sce under the ne directory
Necesses that make up ne file and scene
t file is set.
【0109】上記図14のディレクトリ構造を前提とし
て、例えば或るデータサービスにおいて、データサービ
スの最初にアクセスすべきアプリケーションがServ
ice Gateway/app0/startupと
いうファイルで、最初のシーンがscenedir0に
含まれる静止画やテキストのファイルで構成されている
とする。そして、このようなデータサービスについてI
RDにより受信を開始したとすれば、次のような手順と
なる。 (Pr11) PMTを参照して所望のデータサービス
のPIDを取得し、そのPIDとtable_idとt
able_id_extensionをフイルタ条件と
してデマルチプレクサでフィルタリングを行い、DSI
を得る。このDSIにはService Gatewa
yオブジェクトのIORが書かれている。 (Pr12) このIORから、先に説明したオブジェ
クト抽出手順(Pr1)〜(Pr6)でService
Gatewayオブジェクトを得る。Assuming that the directory structure shown in FIG. 14 is used, for example, in a certain data service, the application to be accessed first in the data service is called “serv”.
Suppose that the first scene is composed of a still image or text file included in scenedir0 in a file called iceGateway / app0 / startup. And for such a data service I
Assuming that reception is started by RD, the following procedure is performed. (Pr11) A PID of a desired data service is acquired by referring to the PMT, and the PID, table_id, and t are obtained.
Filtering is performed by a demultiplexer under the condition of “able_id_extension” as a filter condition.
Get. This DSI includes Service Gateway
The IOR of the y object is written. (Pr12) From this IOR, the Service is performed in the object extraction procedures (Pr1) to (Pr6) described above.
Get Gateway object.
【0110】Service Gatewayオブジェ
クトとディレクトリ・オブジェクトの2種類のBIOP
メッセージの中には、そのディレクトリ直下のオブジェ
クトの名称、所在(lOR)、オブジェクトの種類とい
った情報が、bindingという属性情報として入っ
ている。従ってオブジェクトの名称が与えられると、S
ervice Gatewayから始まってディレクト
リをーつづつ下にたどりながら、その名称のオブジェク
トに行き着くことができる(同じ名称のオブジェクトが
存在する場合は、違うところまで上位のバス名が必要に
なる)。そして、さらに次に示す手順に進む。[0110] Two types of BIOPs: a Service Gateway object and a directory object
In the message, information such as the name, location (lOR), and type of the object immediately below the directory is included as attribute information called binding. Therefore, given the name of the object,
Starting from the service gateway, it is possible to arrive at the object of that name while following the directory one by one (if an object with the same name exists, a higher-order bus name is required up to a different place). Then, the process proceeds to the next procedure.
【0111】(Pr13) Service Gate
wayオブジェクトのbinding情報からapp0
オブジェクトのIORを得て、オブジェクト抽出手順
(Pr1)〜(Pr6)によりapp0オブジェクトを
得る。 (Pr14) app0オブジェクトのbinding
情報からstartupオブジェクトのIORを得て、
オブジェクト抽出手順(Pr1)〜(Pr6)でsta
rtupオブジェクトを得る。以下同様に最初のシーン
であるscenedir0オブジェクトなどを得る。(Pr13) Service Gate
app0 from the binding information of the way object
The IOR of the object is obtained, and the app0 object is obtained by the object extraction procedures (Pr1) to (Pr6). (Pr14) binding of app0 object
Get the IOR of the startup object from the information,
In the object extraction procedure (Pr1) to (Pr6),
Get an rtup object. Hereinafter, similarly, a scenedir0 object, which is the first scene, is obtained.
【0112】前述したように、モジュールを形成するオ
ブジェクトの関係はDSM−CC方式のもとでは特に限
定されるものではなく任意である。そこで、仮に図15
に示すような、それぞれのオブジェクト1つがモジュー
ル1つに対応するようなマッピングを取って地上局1か
ら送信を行ったとする。なお、データサービスのディレ
クトリ構造に対するマッピングの処理は、DSM−CC
エンコーダ44にてモジュールを形成する処理に際し
て、MHEGコンテンツのデータに対して行われるもの
である。As described above, the relationship between objects forming a module is not particularly limited under the DSM-CC system, and is arbitrary. Therefore, assuming that FIG.
It is assumed that each of the objects is mapped to correspond to one module as shown in FIG. The mapping process for the directory structure of the data service is performed by the DSM-CC.
In the process of forming a module by the encoder 44, the process is performed on the data of the MHEG content.
【0113】この場合、IRD側において上記(Pr1
1)〜(Pr14)の手順によってオブジェクトを次々
に得るには、一々新しいモジュールを受信することにな
る。このため、オブジェクトを得るごとにフィルタ条件
を何度もデマルチプレクサ70に変更設定してフィルタ
リングする手順が必要であり、このようなフィルタリン
グ動作の繰り返しによってシーンの取り込みが遅れ、そ
の表示も遅くなるなどサービス性の低下を招くことにな
る。データサ−ビスの全データの大きさや放送時に割り
当てられる帯域にもよるが、カルーセル1回転の周期は
数秒から、10秒以上に達することも考えられる。1回
のフィルタリングには最悪で力ルーセル1回転分(平均
1/2回転分)の待ち時間が生じるので、このフィルタ
リングの回数をできるだけ少なくすることがサービス性
の向上に直接結びついてくる。In this case, the above (Pr1
In order to obtain objects one after another by the procedures of 1) to (Pr14), a new module is received. Therefore, every time an object is obtained, it is necessary to change the filter condition many times in the demultiplexer 70 and perform a procedure of filtering. Such repetition of the filtering operation delays the capture of the scene and delays the display. Serviceability will be reduced. Depending on the size of all data of the data service and the band allocated at the time of broadcasting, the period of one rotation of the carousel may be several seconds to 10 seconds or more. In one filtering, the worst case is a waiting time of one rotation of the power roux (an average of 回 転 rotation). Therefore, reducing the number of times of the filtering as much as possible directly leads to improvement of serviceability.
【0114】また、シーンの切り換えについて考えてみ
ると、図15に示すマッピングでは、表示中のシーンか
ら次のシーンのファイルを呼び込むときには、上位のデ
ィレクトリからたどらなくてはならない場合が生じる。
例えば図15に示すマッピングの場合であれば、app
0/scenedir0からapp0/scenedi
r1に移る場合は、既にapp0オブジェクトのBIO
Pメッセージからscenedir1のbinding
情報が得られているが、app0/scenedir0
からappN/scenedir0に移る場合は、Se
rvice GatewayオブジェクトのBIOPメ
ッセージにあったappNオブジェクトのbindin
g情報からappN/scenedir0を辿ることに
なる。つまり、シーンを変更するために、先ずServ
ice Gatewayオブジェクトのモジュールを受
信して、このBIOPメッセージからappNのbin
ding情報を得て、appN/scenedir0の
ディレクトリを識別してから、このappN/scen
edir0のモジュールを受信せねばならなくなる。
(但し、上記した動作は、1回目のappNをアクセス
のときだけである。2回目以降はappNのbindi
ng情報を保持していればこの手順は不要となる。)つ
まり、このような場合もモジュールのフィルタリングに
よるシーン切り替えの待ち時間が大きくなる。Considering the switching of scenes, in the mapping shown in FIG. 15, when a file of the next scene is called from the currently displayed scene, it may be necessary to search from the upper directory.
For example, in the case of the mapping shown in FIG.
0 / scenedir0 to app0 / scenedi
When moving to r1, the BIO of the app0 object is already
Binding of sceneir1 from P message
Information is available, but app0 / scenedir0
When moving from to appN / scenedir0, Se
The bindin of the appN object in the BIOP message of the service Gateway object
AppN / scenedir0 is traced from the g information. In other words, in order to change the scene,
The module of the ice Gateway object is received, and the bin of appN is
After obtaining ding information and identifying the directory of appN / scenedir0,
The module of edir0 must be received.
(However, the above operation is performed only when the first appN is accessed. From the second time onward, the bindN of the appN is used.
This procedure becomes unnecessary if ng information is held. That is, even in such a case, the waiting time for scene switching by module filtering becomes long.
【0115】3.地上局側のデータマッピング例 そこで、本実施の形態では、先に述べた(Pr1)〜
(Pr6)によるオブジェクト抽出手順によっても、最
初のシーン表示や、シーンの切り替えによる待ち時間が
短縮されるように、次のようにオブジェクトのマッピン
グ方法を提案するものである。3. Example of Data Mapping on Ground Station Side Therefore, in the present embodiment, (Pr1) to (Pr1)
The following object mapping method is proposed so that the first scene display and the waiting time due to the scene switching can be reduced by the object extraction procedure according to (Pr6).
【0116】図12は、本実施の形態としてのデータサ
ービスのディレクトリ構造に対するマッピング例を示す
ものである。図12においては、1つのシーンを構成す
るオブジェクト全てを1つのモジューとして纏め(モジ
ュール2,3・・N)、それ以外のServiceGa
tewayを含む上位ディレクトリを1つのモジュール
(モジュール1)にマッピングしている。ただし最初に
アクセスするアプリケーションファイル「Startu
p」は、最初のシーンのモジュールとー緒のモジュール
(モジュール2)にマッピングするようにする。FIG. 12 shows an example of mapping to the directory structure of the data service according to the present embodiment. In FIG. 12, all objects constituting one scene are collected as one module (modules 2, 3,... N), and the other ServiceGas
The upper directory including “tway” is mapped to one module (module 1). However, the application file “Startu
"p" is mapped to a module of the first scene and a module (module 2).
【0117】このようなマッピングとされれば、まずS
ervice Gatewayのモジュール1を受信す
れば、そのサブディレクトリの構成すべてが同じモジュ
ールに入っているので、IRD12側ではディレクトリ
構成全体をこのモジュール1の受信で得ることができ
る。そして、これに続いてモジュール2を受信すること
になるが、このモジュール2は最初に提示するシーンの
ファイルがマッピングされて形成されたモジュールであ
る。従って、このモジュール2のデータの取り込みが完
了した段階で、最初のシーン出力に必要なオブジェクト
の情報が全て得られることになる。つまり、先に示した
(Pr5)の手順が完了した段階では、(Pr6)の手
順もほぼ同時に完了させていることになる。実際には、
キュー71にてモジュール2が得られたら、このモジュ
ール2を1シーン分のデータとして、DSM−CCバッ
ファ91に伝送するようにされる。なお、このような手
順は、ルートディレクトリを含むモジュール1について
も同様に行われる。従って、この場合には、モジュール
1、モジュール2と続けて、2回のモジュールの受信
(獲得)さえ完了すれば、そのまま最初のシーンをの再
生を始めることができる。また、さらに別のシーンに切
り替わる場合は、最初に取り込んだディレクトリ・オブ
ジェクトのbinding情報を参照すれば、直接所望
のシーン・ディレクトリのモジュールを受信しにいくこ
とができる。With such a mapping, first, S
When the module 1 of the service gateway is received, the entire directory structure can be obtained by the reception of the module 1 on the IRD 12 side since all the sub directory structures are included in the same module. Subsequently, module 2 is received. This module 2 is a module formed by mapping a scene file to be presented first. Therefore, at the stage when the data capture of the module 2 is completed, all the information of the objects necessary for the first scene output can be obtained. That is, at the stage where the procedure of (Pr5) described above is completed, the procedure of (Pr6) is also completed almost simultaneously. actually,
When the module 2 is obtained in the queue 71, the module 2 is transmitted to the DSM-CC buffer 91 as data for one scene. Note that such a procedure is similarly performed for the module 1 including the root directory. Accordingly, in this case, the reproduction of the first scene can be started as long as the reception (acquisition) of the module is completed twice after the module 1 and the module 2. Further, when switching to another scene, it is possible to directly receive a module of a desired scene directory by referring to the binding information of the directory object taken in first.
【0118】この場合でも、確かにシーン切り替えのオ
ーバーヘッドは大きくないが、データサービスの最初の
シーンの提示までに、モジュールを2回受信する必要が
ある。Even in this case, the overhead of scene switching is certainly not large, but it is necessary to receive the module twice before the presentation of the first scene of the data service.
【0119】なお、図12に示すマッピングでは、上位
ディレクトリをまとめたモジュール1に、多くのオブジ
ェクトが入ることになるが、Service Gate
wayとディレクトリの2種類のオブジェクトは、上記
のようにそのディレクトリにbindされるオブジェク
トの名称やIORといったデータ量としてはさほど大き
くない情報の組み合わせで出来ているため、オブジェク
トの数が多くても全体のデータ容量は大きくないもので
ある。In the mapping shown in FIG. 12, although many objects are to be put into the module 1 in which the upper directories are put together, the Service Gate
Since the two types of objects, way and directory, are made up of a combination of information that is not so large in data amount, such as the name of the object bound to the directory and the IOR, as described above, even if the number of objects is large, the total Is not large.
【0120】また図13に本実施の形態としての他のマ
ッピング例を示す。ここでは、上位ディレクトリを纏め
たものに、さらに最初にアクセスするアプリケーション
ファイル(startup)と最初のシーンのオブジェ
クトを1つのモジュール1にマッピングしている。これ
以外の他のモジュール2・・Nは、図12に示したモジ
ュール3・・N等と同様に、1シーンごとに必要とされ
るオブジェクトを纏めて形成されている。このようなマ
ッピングを施して送信した場合には、IRD側ではこの
モジュール1だけを受信して、キュー71からDSM−
CCバッファ91に伝送することで、すぐに最初のシー
ンを表示することができることになる。また、この段階
で、ディレクトリ・オブジェクトのbinding情報
が参照可能となるので、以降のシーンの切り換えに対応
して必要なシーンのオブジェクトから成るモジュールに
直ちにアクセスすることが可能になる。FIG. 13 shows another mapping example as the present embodiment. Here, an application file (startup) to be accessed first and an object of the first scene are mapped to one module 1 in a collection of the upper directories. Other modules 2... N are formed by collecting objects required for each scene similarly to the modules 3... N shown in FIG. When such mapping is performed and transmitted, the IRD receives only this module 1 and sends the DSM-
By transmitting the scene to the CC buffer 91, the first scene can be immediately displayed. Also, at this stage, the binding information of the directory object can be referred to, so that it is possible to immediately access a module including objects of a necessary scene in response to a subsequent scene change.
【0121】なお、上記マッピング例としては、1シー
ンを形成するオブジェクトが必ず1モジュールに収まる
ようにしているが、場合によっては、1シーンを形成す
る全てのオブジェクトの容量が大きく、モジュールとし
て規定されている最大サイズを超えるような場合、例え
ば、n番目のモジュールに対して或る1シーンを形成す
るオブジェクトを出来るだけ納めるようにし、n番目の
モジュールに収まりきらなかった同一シーンを形成する
オブジェクトによりn+1番目のモジュールを形成する
ようにする。そして、このn番目のモジュールとn+1
番目のモジュールを連続させて、カルーセル方式で送信
する。このようにすれば、n番目のモジュールとn+1
番目のモジュールを2回受信する必要はあるが、比較的
迅速にシーンの再生を行うことが出来る。また、以降の
説明においては、上述のようにして1シーンを形成する
ことのできるオブジェクトが全て格納されることで形成
されたモジュールのことを、「シーンモジュール」とも
いうことにする。In the above mapping example, the objects forming one scene are always contained in one module. However, in some cases, the capacity of all the objects forming one scene is large and the object is defined as a module. If the maximum size exceeds the maximum size, for example, an object forming a certain scene is stored as much as possible for the n-th module, and an object forming the same scene that cannot be accommodated in the n-th module is used. The (n + 1) th module is formed. Then, the n-th module and n + 1
The second module is transmitted continuously in the carousel system. In this way, the n-th module and n + 1
Although the second module needs to be received twice, the scene can be reproduced relatively quickly. In the following description, a module formed by storing all objects that can form one scene as described above is also referred to as a “scene module”.
【0122】4.本実施の形態のキューへのモジュール
割付 続いて、本発明の実施の形態の特徴となるIRD12側
の受信処理として、キュー71へのモジュール割付につ
いて図16〜図20を参照して説明する。本実施の形態
のIRD12では、上記した放送側(地上局側)のデー
タマッピングが行われることを前提として、以降説明す
るキュー71へのモジュール割付を行うことで、更に効
率的に必要なシーンを得ることが可能になるものであ
る。4. Module Assignment to Queue in the Present Embodiment Next, module assignment to the queue 71 will be described as reception processing on the IRD 12 side, which is a feature of the embodiment of the present invention, with reference to FIGS. In the IRD 12 of the present embodiment, on the premise that the above-described data mapping on the broadcasting side (ground station side) is performed, by performing module allocation to the queue 71 described below, a more efficient scene can be obtained. It is something that can be obtained.
【0123】図16(a)には、トランスポート部53
におけるデマルチプレクサ70とキュー71の構成、及
びDSM−CCバッファ91のメモリ領域を概念的に示
している。FIG. 16A shows the transport unit 53.
2 schematically shows the configuration of the demultiplexer 70 and the queue 71, and the memory area of the DSM-CC buffer 91.
【0124】この図に示すトランスポート部53として
は、デマルチプレクサ70と、キュー71を形成するメ
モリ領域Mem−1,Mem−2,Mem−3・・・M
em32が示されている。そして、これら各メモリ領域
がモジュール単位のデータを蓄積可能とされている。前
述したように、デマルチプレクサ70に与えられたフィ
ルタ条件に適合する種類のデータ(例えばセクション単
位)がトランスポートストリームから分離抽出されるの
であるが、この分離抽出されたセクションは、メモリ領
域Mem−1〜Mem−32の何れかに対して格納され
る。そして、この動作が繰り返される結果、或るメモリ
領域に対して上記フィルタ条件に適合して集められたセ
クションの集合より成るモジュールが形成されて、ここ
に蓄積されることになる。The transport section 53 shown in this figure includes a demultiplexer 70 and memory areas Mem-1, Mem-2, Mem-3.
em32 is shown. Each of these memory areas can store data in module units. As described above, data of a type (for example, section unit) that matches the filter condition given to the demultiplexer 70 is separated and extracted from the transport stream. The separated and extracted section is stored in the memory area Mem- 1 to Mem-32. As a result of the repetition of this operation, a module consisting of a set of sections collected in a certain memory area in conformity with the above filter conditions is formed and stored here.
【0125】ここで、例えば、デマルチプレクサ70に
より、シーンAを形成するデータにより形成されるモジ
ュールのデータを分離抽出して、メモリ領域Mem−2
に格納したとする。そして、このシーンAのモジュール
をGUI画面表示に使用する場合には、このシーンAの
モジュールのデータをメモリ領域Mem−2からDSM
−CCバッファに対して書き込みを行うようにされる。
つまり、受信したシーンのモジュールの一般的な伝送形
態としては、一旦これをキューのメモリ領域にて蓄積し
た後、DSM−CCバッファ91に取り込むようにする
ことになる。そして、前述したようにDSM−CCバッ
ファ91に取り込まれたシーンデータを、MHEGデコ
ーダブロック84がアクセスしてロードし、MHEGバ
ッファに取り込むことでGUI画面等のシーン出力が可
能になる。Here, for example, the data of the module formed by the data forming the scene A is separated and extracted by the demultiplexer 70, and the data is stored in the memory area Mem-2.
And stored in When the module of the scene A is used for displaying the GUI screen, the data of the module of the scene A is transferred from the memory area Mem-2 to the DSM.
-Write to the CC buffer.
In other words, as a general transmission form of the module of the received scene, the module is temporarily stored in the memory area of the queue, and is then taken into the DSM-CC buffer 91. Then, as described above, the MHEG decoder block 84 accesses and loads the scene data captured in the DSM-CC buffer 91, and captures the scene data in the MHEG buffer, thereby enabling scene output such as a GUI screen.
【0126】ところで、ここでもメモリ領域Mem−1
〜Mem32として示されているように、キュー71を
形成するメモリ領域は本実施の形態では32列に限定さ
れている。そして、これらのメモリ領域は、実際にはト
ランスポートストリームを受信する動作を行っている限
りは、各種異なるフィルタ条件に適合して分離された、
例えばMPEGストリームデータ等をはじめとする多種
のモジュールデータによりほぼ占有されている状態にあ
る。このような状況は、例えば、MHEGデコーダブロ
ック84がアクセスする必要があるとされる多数のシー
ンモジュールをDSM−CCバッファ91に取り込もう
としても、このシーンモジュールを一時保持するメモリ
領域数が制限されていることで、例えば必要とされるシ
ーンモジュールの多くを一度にキュー内の複数のメモリ
領域に蓄積して、DSM−CCバッファ91に転送する
ことが事実上困難であることを意味する。また、DSM
−CC方式では、モジュールの受信順(取込順)を特に
規定してはいない。つまり、トランスポート部53にお
いてどのような順序でシーンモジュールを抽出してメモ
リ領域に格納するのかは任意とされている。Incidentally, also in this case, the memory area Mem-1
As shown by MMem32, the memory area forming the queue 71 is limited to 32 columns in the present embodiment. These memory areas are separated in conformity with various different filter conditions as long as the operation of actually receiving the transport stream is performed.
For example, it is almost occupied by various types of module data such as MPEG stream data. In such a situation, for example, even if a large number of scene modules required to be accessed by the MHEG decoder block 84 are to be loaded into the DSM-CC buffer 91, the number of memory areas for temporarily holding the scene modules is limited. This means that it is practically difficult to accumulate, for example, many required scene modules in a plurality of memory areas in the queue at one time and transfer them to the DSM-CC buffer 91. Also, DSM
In the -CC system, the order of module reception (order of capture) is not specified. In other words, the order in which scene modules are extracted in the transport unit 53 and stored in the memory area is arbitrary.
【0127】そこで、本実施の形態では、上記したメモ
リ領域数の制限が有ることを踏まえた上で、DSM−C
Cバッファ91に取り込む必要のあるモジュールが出来
るだけ迅速にトランスポート部53にて得られるよう
に、次のようにしてモジュール割付(受信順)を規定す
る。Thus, in the present embodiment, taking into account the above-mentioned limitation on the number of memory areas, the DSM-C
The module allocation (reception order) is defined as follows so that the modules required to be taken into the C buffer 91 can be obtained by the transport unit 53 as quickly as possible.
【0128】先に、説明したようにデータサービスのデ
ィレクトリ構造、及びこのディレクトリ構造に対するモ
ジュールのマッピングは、例えば図12、図13に示す
ものとされるが、例えばapp0のディレクトリに関す
れば、app0/startupと、app0/sce
nedir0/scsne0のオブジェクトを得さえす
れば、app0のアプリケーションを形成するシーンの
優先順位の情報を得ることが出来るようになっている。
これはapp1〜Nまでの他のアプリケーションについ
ても同じことがいえる。ここでいう優先順位とは、例え
ば或るシーンの表示出力から他のシーンの表示出力に移
行する(これを「トランジション」ともいう)場合に
は、上記他のシーンとして複数の候補があるのが通常で
あるが、これら複数のシーンの候補において、例えばユ
ーザの操作によってシーン切り換えの必要があるとされ
たときに、切り換えが行われる可能性の高さに従って付
されているものである。As described above, the directory structure of the data service and the mapping of modules to this directory structure are, for example, as shown in FIGS. 12 and 13. For example, regarding the directory of app0, / Startup and app0 / sce
As long as the object of nedir0 / scsne0 is obtained, information on the priority of the scene forming the application of app0 can be obtained.
The same can be said for the other applications from app1 to appN. The priority here means that, for example, when shifting from a display output of a certain scene to a display output of another scene (this is also called “transition”), there are a plurality of candidates for the other scene. Usually, in the plurality of scene candidates, when it is determined that the scene needs to be switched by, for example, a user operation, the scene is assigned according to the likelihood of the switching.
【0129】本実施の形態では、このシーンの優先順位
の情報に基づいてモジュール割付を規定するが、これに
ついて、再度図16を参照して説明する。ここでは、説
明の便宜上、トランスポート部53においてシーンモジ
ュールを保持することのできるメモリ領域はMem−2
のみとされて、他のメモリ領域は、それ以外の種類のモ
ジュールを格納するために占有されているものとする。
また、ここでは、app0のアプリケーションによりシ
ーン出力する場合に関して説明する。In the present embodiment, the module assignment is defined based on the information on the priority of the scene. This will be described again with reference to FIG. Here, for convenience of explanation, the memory area where the transport module 53 can hold the scene module is Mem-2.
It is assumed that only the other memory area is occupied for storing other types of modules.
Here, a case where a scene is output by an application of app0 will be described.
【0130】ここで、トランスポート部53において
は、既に上記したapp0/startupと、app
0/scenedir0/scsne0のオブジェクト
が属するモジュールを受信しており、例えばCPU80
の制御処理部81では、app0のアプリケーションに
おけるシーンの優先順位情報が得られているものとす
る。そして、ここでは優先順位情報により、app0の
ディレクトリ構造化にある複数シーンについて、シーン
A→シーンB→シーンC→シーンD・・のようにして優
先順位が与えられているものとし、これらのシーンをD
SM−CCバッファ91に出来るだけ取り込むことが必
要であるとする。Here, in the transport unit 53, the above-described app0 / startup, app
0 / scenedir0 / scsne0 object has been received, for example, the CPU 80
It is assumed that the control processing unit 81 has obtained scene priority information in the application of app0. Here, it is assumed that the priorities are given to a plurality of scenes in the directory structure of app0 in the order of scene A → scene B → scene C → scene D. To D
It is assumed that it is necessary to take in the SM-CC buffer 91 as much as possible.
【0131】このような場合、制御処理部81では、先
ず、優先順位が最も高いシーンAのモジュールがトラン
スポート部53のメモリ領域Mem−2に格納されるよ
うに制御を実行する。この制御に基づき、デマルチプレ
クサドライバ82は、シーンAのモジュールに適合する
フィルタ条件をデマルチプレクサ70に対して設定す
る。これにより、図16(a)に示すようにして、シー
ンAのモジュールがメモリ領域Mem−2に格納され、
DSM−CCバッファ91に転送する。In such a case, the control processing section 81 first performs control so that the module of the scene A having the highest priority is stored in the memory area Mem-2 of the transport section 53. Based on this control, the demultiplexer driver 82 sets a filter condition suitable for the module of the scene A for the demultiplexer 70. Thereby, the module of scene A is stored in the memory area Mem-2 as shown in FIG.
The data is transferred to the DSM-CC buffer 91.
【0132】続いては、制御処理部81は、シーンAに
続く優先順位のシーンBを獲得するための処理として、
シーンBのモジュールに適合するフィルタ条件をデマル
チプレクサ70に対して設定するようにデマルチプレク
サドライバ82に指示する。これにより、図16(b)
に示すようにして、シーンBのモジュールがメモリ領域
Mem−2に得られ、これをDSM−CCバッファ91
に転送することになる。なお、図16(b)には、図1
6(a)に示した回路ブロックのうち、メモリ領域Me
m−2とDSM−CCバッファ91のみを抜き出して示
している。次に示す図16(c)も同様である。Subsequently, the control processing section 81 performs a process for acquiring the scene B having the priority order following the scene A as follows.
The demultiplexer driver 82 is instructed to set the filter condition suitable for the module of the scene B in the demultiplexer 70. As a result, FIG.
As shown in the figure, the module of scene B is obtained in the memory area Mem-2, and this is stored in the DSM-CC buffer 91.
Will be forwarded to FIG. 16B shows FIG.
In the circuit block shown in FIG.
Only m-2 and the DSM-CC buffer 91 are shown. The same applies to the following FIG. 16 (c).
【0133】更に次は、シーンBに続く優先順位のシー
ンCを得るために、シーンCのモジュールに適合するフ
ィルタ条件をデマルチプレクサ70に対して設定し、図
16(c)に示すようにして、シーンCを得てDSM−
CCバッファ91に転送する。Next, in order to obtain a scene C of the priority order following the scene B, filter conditions suitable for the module of the scene C are set in the demultiplexer 70, and as shown in FIG. , Get scene C and get DSM-
Transfer to the CC buffer 91.
【0134】以降、同様にして優先順位に従ったシーン
のフィルタ条件をデマルチプレクサ70に設定して、そ
のシーンモジュールをメモリ領域Mem−2にて得て、
これをDSM−CCバッファ91に転送していくように
される。Thereafter, similarly, the filter condition of the scene according to the priority order is set in the demultiplexer 70, and the scene module is obtained in the memory area Mem-2.
This is transferred to the DSM-CC buffer 91.
【0135】このような動作が行われる結果、DSM−
CCバッファ91には、シーン出力のために必要、或い
はシーン切り換え時において、次に必要となる可能性の
高いシーンモジュールのデータがその優先順位に従って
格納されることになる。MHEGデコーダブロック84
は、このようにしてDSM−CCバッファ91にて得ら
れたシーンモジュールのデータにアクセスしてGUI画
面などのシーン出力を行うが、例えばデータ放送中にお
いてユーザの操作により所望のシーンの呼び出しの要求
が有った場合、呼び出し要求のあったシーンのデータが
DSM−CCバッファ91に既に保持されている可能性
は非常に高く、ほぼ確実に呼び出し要求のあったシーン
データにアクセスして、これを即座に出力させることが
可能になる。As a result of such an operation, DSM-
In the CC buffer 91, data of a scene module which is likely to be required next for scene output or at the time of scene switching is stored in accordance with the priority order. MHEG decoder block 84
Performs a scene output such as a GUI screen by accessing the data of the scene module obtained in the DSM-CC buffer 91 in this way. For example, during a data broadcast, a request for calling a desired scene is made by a user operation. Is very likely that the data of the scene requested to be called is already held in the DSM-CC buffer 91, and the scene data requested to be called is almost certainly accessed, and It is possible to output immediately.
【0136】ところで、DSM−CCバッファ91の容
量は当然のこととして有限であり、実際にはさほど多く
の容量は割り当てられない。このため、例えばMHEG
デコーダブロック84により使用することが想定される
全てのシーンモジュールを格納することが出来ない場合
がある。このために、例えば次のような不都合が生じる
ことが想定される。By the way, the capacity of the DSM-CC buffer 91 is finite as a matter of course, and not much capacity is actually allocated. For this reason, for example, MHEG
It may not be possible to store all scene modules that are assumed to be used by the decoder block 84. For this reason, it is assumed that the following inconveniences occur, for example.
【0137】ここで、例えば図17に示すようにして、
あるアプリケーションのもとでシーンA,シーンB,シ
ーンC,シーンD,シーンEの5つのシーンが用意され
ているとして、この各シーン間のトランジションの形態
が図のように設定されている(このようなトランジジョ
ンの規定はMHEGにより記述されている)ものとす
る。例えばシーンAであれば、シーンB,C,Eにトラ
ンジションが可能とされ、シーンBであればシーンA,
Cにトランジション可能とされている。Here, for example, as shown in FIG.
Assuming that five scenes, scene A, scene B, scene C, scene D, and scene E, are prepared under a certain application, the form of transition between these scenes is set as shown in FIG. The definition of such a transition is described by MHEG). For example, in the case of scene A, transitions are allowed to scenes B, C, and E. In the case of scene B, scenes A,
Transition to C is allowed.
【0138】そして、DSM−CCバッファ91の容量
として、最大で4つのシーンモジュールを格納すること
が限度であると仮定する。この条件の下で上記図17に
示すシーンA〜Eの5つのモジュールが用意されたアプ
リケーションをMHEGデコーダブロック84が使用す
るとした場合、上記シーンA〜Eの5つのモジュールの
うち、1つのシーンモジュールはDSM−CCバッファ
91に格納できないことになる。It is assumed that the maximum capacity of the DSM-CC buffer 91 is to store up to four scene modules. Under this condition, if the MHEG decoder block 84 uses an application in which the five modules of scenes A to E shown in FIG. 17 are prepared, one scene module among the five modules of scenes A to E is used. Cannot be stored in the DSM-CC buffer 91.
【0139】上記した条件の下、例えば或る段階でシー
ンAを表示出力しており、このときDSM−CCバッフ
ァ91に取り込まれているシーンモジュールはシーン
A,B,C,Dの4つであるとする。そして、この状態
から、例えばユーザの操作によりシーンEの呼び出し要
求が有ったとすると、これに応答してシーンAからシー
ンEにトランジションすることになる。ところが、この
ときDSM−CCバッファ91にはシーンEのモジュー
ルは無いことから、シーンEの呼び出し要求に応えるた
めには、シーンEのモジュールをカルーセルから新規に
取り込む必要がある。この間、ユーザにとってはシーン
AからシーンEの表示に移行するまでの待ち時間が生じ
ることになる。Under the above-described conditions, for example, scene A is displayed and output at a certain stage. At this time, there are four scene modules A, B, C, and D taken in the DSM-CC buffer 91. Suppose there is. Then, from this state, if there is a call request for the scene E by, for example, a user operation, a transition from the scene A to the scene E is made in response to the request. However, at this time, since there is no module for scene E in the DSM-CC buffer 91, it is necessary to newly load the module for scene E from the carousel in order to respond to the call request for scene E. During this time, there is a waiting time for the user to shift from the scene A to the display of the scene E.
【0140】そこで、このような不都合が出来るだけ解
消されるようにするため、本実施の形態では、更に次の
ようなモジュール割付も行うようにされる。Therefore, in order to eliminate such inconvenience as much as possible, in the present embodiment, the following module allocation is further performed.
【0141】実際のMHEG方式によるデータサービス
では、或るアプリケーションにおける複数シーン間の優
先順位は、現在表示出力中のシーンに依存して変更され
る場合がある。このような出力中のシーンに応じて変更
される優先順位も、前述した優先順位情報に基づいて得
ることが出来る。そこで、本実施の形態では、MHEG
デコーダブロック84のプログラムとして、現在あるシ
ーンを出力しているときに、その出力中のシーンを基準
として他のシーンの優先順位を管理する、ネクストシー
ンマネージャ(Next Scene Manager)を起動させること
とする。In an actual data service based on the MHEG system, the priority of a plurality of scenes in a certain application may be changed depending on the scene currently being displayed and output. Such a priority changed according to the scene being output can also be obtained based on the priority information described above. Therefore, in the present embodiment, MHEG
As a program of the decoder block 84, when a current scene is being output, a next scene manager (Next Scene Manager) that manages the priorities of other scenes based on the output scene is activated. .
【0142】ここで、ネクストシーンマネージャの管理
例として、図17に示したシーンのうちで現在シーンA
を出力中の場合に、ネクストシーンマネージャにより管
理されている優先順位が図18に示したものであったと
する。つまり、優先順位として(1)シーンA→(2)
シーンC→(3)シーンE→(4)シーンB→(5)シ
ーンDの順位で管理されているものとする。このような
優先順位は、実際には、図に示すようなプライオリティ
値によって決定される。このプライオリティ値が大きい
ほど優先順位は高いことになり、ここでは、シーンAに
対する他のシーンのプライオリティ値として、シーンC
が‘10’、シーンEが‘9’、シーンBが‘7’、シ
ーンDが‘1’とされている。そして、このときDSM
−CCバッファ91に格納されているシーンモジュール
は、図20(a)に示すように、シーンA,E,C,B
であるとする。Here, as a management example of the next scene manager, the current scene A among the scenes shown in FIG.
Is being output, the priorities managed by the next scene manager are as shown in FIG. That is, (1) scene A → (2)
It is assumed that the scenes are managed in the order of scene C → (3) scene E → (4) scene B → (5) scene D. Such priorities are actually determined by priority values as shown in the figure. The higher the priority value is, the higher the priority is. In this case, the scene C
Is "10", scene E is "9", scene B is "7", and scene D is "1". And at this time DSM
The scene modules stored in the CC buffer 91 include scenes A, E, C, and B, as shown in FIG.
And
【0143】この状態の下で、例えばシーンAからシー
ンCにトランジジョンするための要求が行われたとする
と、MHEGデコーダブロック84では、図20(a)
に示した格納状態にあるDSM−CCバッファ91から
シーンCのデータにアクセスして、これを出力するため
の処理を実行する。In this state, for example, if a request to make a transition from scene A to scene C is made, the MHEG decoder block 84 in FIG.
The processing for accessing the data of the scene C from the DSM-CC buffer 91 in the storage state shown in (1) and outputting the same is executed.
【0144】また、MHEGデコーダブロック84で
は、シーンCにトランジションしたことに対応して、ネ
クストシーンマネージャによりシーンの優先順位を、例
えば図19に示すように更新して管理する。この図で
は、現在出力中のシーンCを筆頭に、(1)シーンC→
(2)シーンB→(3)シーンA→(4)シーンD→
(5)シーンEの順位であるとして管理している。ま
た、この場合のシーンCに対する他のシーンのプライオ
リティ値は、それぞれシーンBが‘7’、シーンAが
‘6’、シーンDが‘4’、シーンEが‘2’とされて
おり、上記優先順位はこのプライオリティ値に従って決
定されたものである。このように、現在出力中のシーン
に応じて、シーン間の優先順位は変更される。In the MHEG decoder block 84, in response to the transition to the scene C, the next scene manager updates and manages the priorities of the scenes as shown in FIG. 19, for example. In this figure, the scene C currently being output is at the top, and (1) scene C →
(2) Scene B → (3) Scene A → (4) Scene D →
(5) It manages as the order of the scene E. In this case, the priority values of the other scenes with respect to the scene C are “7” for the scene B, “6” for the scene A, “4” for the scene D, and “2” for the scene E. The priority is determined according to this priority value. As described above, the priority between the scenes is changed according to the scene currently being output.
【0145】そして、本実施の形態では、上記図19に
示すようにして更新されたシーン間の優先順位に基づい
て、次のようにしてDSM−CCバッファ91に格納さ
れるシーンモジュールの内容を更新する。例えば、CP
U80は、上記図19に示す、現在ネクストシーンマネ
ージャにより管理されているシーン間の優先順位と、図
20(a)のDSM−CCバッファ91に格納されてい
るシーンモジュールとの比較を行う。すると、DSM−
CCバッファ91には、図19に示す優先順位として1
位のシーンC、2位のシーンB、3位のシーンA、及び
5位(最下位)のシーンEが格納されており、4位のシ
ーンDが格納されていないことが分かる。In the present embodiment, the contents of the scene module stored in the DSM-CC buffer 91 are determined as follows based on the priority between the scenes updated as shown in FIG. Update. For example, CP
The U80 compares the priority between the scenes currently managed by the next scene manager shown in FIG. 19 with the scene module stored in the DSM-CC buffer 91 in FIG. Then DSM-
In the CC buffer 91, the priority shown in FIG.
It can be seen that the third scene C, the second scene B, the third scene A, and the fifth (lowest) scene E are stored, and the fourth scene D is not stored.
【0146】そこで、CPU80においては、DSM−
CCバッファ91に格納されるシーンモジュールが、現
在管理されている優先順位における上位4つのシーンと
なるように制御を実行する。つまり、この場合であれ
ば、図20(b)に示すようにして、シーンEの代わり
にシーンDのモジュールがDSM−CCバッファ91に
格納されるようにして、結果的に上位4つのシーンモジ
ュールが格納されるようにするものである。Therefore, in the CPU 80, the DSM-
The control is performed such that the scene modules stored in the CC buffer 91 are the top four scenes in the currently managed priority order. That is, in this case, the module of the scene D is stored in the DSM-CC buffer 91 instead of the scene E as shown in FIG. Is stored.
【0147】このためには、先ず、例えばデマルチプレ
クサドライバ82からデマルチプレクサ70に対して、
シーンDのモジュールを得るためのフィルタ条件を出力
させるように、CPU80における制御処理部80が指
示をするようにされる。これにより、キュー71におい
てシーンデータのモジュールのために割り当てられたメ
モリ領域にシーンDのモジュールが格納される。そし
て、このキュー71のメモリ領域に得られたシーンDの
モジュールが、シーンEのモジュールと入れ替わるよう
にして、DSM−CCバッファ91に対する書き込み制
御を実行するものである。この書き込み制御も、例えば
制御処理部80が実行するようにされればよい。なお、
シーン切り換えに応じて変更されたシーンの優先順位
と、それまでのDSM−CCバッファ91に格納されて
いるシーンモジュールデータとの比較で、2以上のシー
ンモジュールを入れ替える必要が有れば、上記した制御
動作に準じてこれらのシーンモジュールについての取り
込みを行うようにされる。For this purpose, first, for example, the demultiplexer driver 82
The control processing unit 80 of the CPU 80 is instructed to output a filter condition for obtaining a module of the scene D. As a result, the scene D module is stored in the queue 71 in the memory area allocated for the scene data module. Then, the control of writing to the DSM-CC buffer 91 is performed such that the module of the scene D obtained in the memory area of the queue 71 is replaced with the module of the scene E. This writing control may be executed by the control processing unit 80, for example. In addition,
If it is necessary to replace two or more scene modules by comparing the priorities of the scenes changed according to the scene switching with the scene module data stored in the DSM-CC buffer 91 up to that time, the above is described. The capture of these scene modules is performed according to the control operation.
【0148】例えば、或るシーンを出力させている状態
の下で、ユーザがシーンの切り換え操作を行う場合、や
はり実際には、その時点でネクストシーンマネージャに
より管理されている優先順位に従って、切り換えのシー
ンが選択される可能性が高い。このため、上記のように
して、現在出力中のシーンに応じて決定されるシーンの
優先順位の上位のシーンから優先的にDSM−CCバッ
ファ91に取り込むように、トランスポート部53にお
けるモジュール割付を規定すれば、例えば、先に述べた
ように、シーンのトランジジョンの要求があったとき
に、このシーンのモジュールがDSM−CCバッファ9
1に格納されていないといった状況が生じる可能性は極
力回避される。従って、ほとんどの場合、シーンの切り
換え操作に応じて即座にシーンの切り換えが行われるこ
とになるものである。For example, when a user performs a scene switching operation while a certain scene is being output, the switching is actually performed according to the priority managed by the next scene manager at that time. There is a high possibility that a scene will be selected. For this reason, as described above, the module allocation in the transport unit 53 is performed so that the higher priority scene of the scene determined according to the currently output scene is taken into the DSM-CC buffer 91 preferentially. By definition, for example, as described above, when a scene transition is requested, the module of this scene is set in the DSM-CC buffer 9.
The possibility that a situation where the data is not stored in 1 is generated is avoided as much as possible. Therefore, in most cases, scene switching is performed immediately in response to a scene switching operation.
【0149】なお、シーン切り換えに応じて変更された
シーンの優先順位に応じて、例えば上記図20(a)か
ら図20(b)に示したようにして、DSM−CCバッ
ファ91の格納状態を遷移させるまでには、実際には、
或る程度の時間がかかるのであるが、例えば、シーンC
の出力が開始されて後において最初のシーン切り換え操
作が行われるまでには、通常、或る程度の期間が存在す
る。つまり、シーンCが出力開始されてしばらくはユー
ザは、シーンCの画像を見ているのが普通である。そし
て、たいていはこの間にDSM−CCバッファ91にお
けるシーンデータの入れ替えはほぼ終了しているため、
実用上は問題にはならないものである。The storage state of the DSM-CC buffer 91 is changed, for example, as shown in FIGS. 20 (a) to 20 (b) according to the priority of the scene changed by the scene switching. By the time you make the transition,
It takes some time, for example, scene C
There is usually a certain period of time after the start of the output of the first scene until the first scene switching operation is performed. That is, for a while after the output of the scene C is started, the user usually looks at the image of the scene C. In most cases, the replacement of the scene data in the DSM-CC buffer 91 is almost completed during this time.
This is not a problem in practical use.
【0150】続いて、上記図18〜図20により説明し
たモジュール割付を実現するための処理動作について、
図21のフローチャートを参照して説明する。この図に
示す処理は、CPU80が実行するものとされる。つま
り、制御処理部81の全体制御に基づいて、デマルチプ
レクサドライバ82、DSM−CCデコーダブロック8
3、及びMHEGデコーダブロック84が適宜所要の制
御処理を実行することにより実現されるものである。ま
た、この図においては、例えばユーザによるシーン切り
換え要求のための操作等が行われたことでシーン切り換
えが必要とされた場合における、シーンモジュール割付
に関する対応処理を示している。Next, the processing operation for realizing the module allocation described with reference to FIGS.
This will be described with reference to the flowchart in FIG. The processing shown in this figure is executed by the CPU 80. That is, based on the overall control of the control processing unit 81, the demultiplexer driver 82, the DSM-CC decoder block 8
3, and the MHEG decoder block 84 appropriately executes necessary control processing. Also, this figure shows the processing related to scene module allocation when scene switching is required, for example, when an operation for a scene switching request is performed by the user.
【0151】この図に示すルーチンにおいては、先ずス
テップS101において、シーン切り換え前のネクスト
シーンマネージャのシーン優先順位に従って挙げられた
シーン候補と、シーン切り換え後のネクストシーンマネ
ージャのシーン優先順位に従って挙げられたシーン候補
とを比較して、これらのシーン候補間で一致しないもの
をリストアップする。また、上記シーン候補間で共通に
一致したシーンについては、シーン切り換えに応じてシ
ーンネクストマネージャが扱うべき「シーンリスト」に
対して登録が行われる。この処理は、例えばMHEGデ
コーダブロック84において、ネクストシーンマネージ
ャを起動させることにより実現される。In the routine shown in this figure, first, in step S101, the scene candidates listed according to the scene priority of the next scene manager before the scene change and the scene priorities of the next scene manager after the scene change are listed. The scene candidates are compared with each other, and those which do not match between these scene candidates are listed. In addition, a scene that is commonly matched between the above-mentioned scene candidates is registered in a “scene list” to be handled by the scene next manager in response to the scene switching. This processing is realized by, for example, activating the next scene manager in the MHEG decoder block 84.
【0152】続くステップS102においては、MHE
Gデコーダブロック84の処理として、上記ステップS
101にてリストアップされた一致しないシーン候補の
うちで、シーン切り換え前のシーン候補とされていたも
のについては削除し、シーン切り換え後に候補とされて
いるシーンについてはシーンリストに追加するための処
理が実行される。この処理によって、シーン切り換えに
応じて候補となる複数シーンが、シーンリストとして用
意されることになる。In the following step S102, MHE
As the processing of the G decoder block 84, the above-described step S
A process for deleting, from among the unmatched scene candidates listed in 101, those which were determined to be scene candidates before scene switching, and adding to the scene list scenes which were candidate after scene switching. Is executed. By this process, a plurality of scenes that are candidates according to the scene switching are prepared as a scene list.
【0153】続くステップS103においては、ネクス
トシーンマネージャの機能を用い、上記シーンリストと
して登録されたシーンについて、シーン切り換えに応じ
て変更されたシーンの優先順位に従ってソートを実行す
るようにされる。これにより、図18に示すネクストシ
ーンマネージャの管理状態から、図19に示すネクスト
シーンマネージャの管理状態に移行することになる。な
お、上記ステップS101〜S103までに示す処理の
うち、ステップS101,及びS102の処理について
は、先の図18及び図19に依る説明では特に言及して
いない。これは、図18、図19に示した場合において
は、シーンAからシーンCへのシーン切り換えによって
は、シーン候補の入れ替えが無いことによる。即ち、図
18から図19の遷移に対応するシーン切り換えに際し
ては、ステップS101において一致しないシーンがリ
ストアップされず、全てのシーンが一致したとして、シ
ーンリストに登録されたことになる。In the following step S103, using the function of the next scene manager, the scenes registered as the scene list are sorted in accordance with the priority of the scene changed according to the scene switching. As a result, the management state of the next scene manager shown in FIG. 18 shifts to the management state of the next scene manager shown in FIG. Note that among the processes shown in steps S101 to S103, the processes in steps S101 and S102 are not particularly mentioned in the description with reference to FIGS. This is because, in the cases shown in FIGS. 18 and 19, there is no replacement of scene candidates by switching the scene from the scene A to the scene C. That is, at the time of the scene switching corresponding to the transition from FIG. 18 to FIG. 19, the unmatched scenes are not listed in step S101, and all scenes are registered in the scene list as being matched.
【0154】ステップS103に続いては、ステップS
104の処理が実行される。ここでは、上記ステップS
103においてソートされたシーンリスト上において、
優先順位的に最上位のシーンについての処理を開始す
る。つまり、このシーンを「現シーン」として扱って以
降の処理を実行していくようにされる。また、ステップ
S104においての「優先順位的に最上位のシーン」と
は、現在出力中とされているシーン(図19であればシ
ーンC)を除いて、最も優先順位の高いシーンが選択さ
れる。つまり、図19の場合で有ればシーンBが選択さ
れることになる。但し、例えば図19に示す優先順位の
管理状態が得られたとき、シーンCがDSM−CCバッ
ファ91に格納されていない場合には、例外的にこのシ
ーンCを現シーンとして扱うようにステップS104で
の処理が行われるものとする。Subsequent to step S103, step S103 is executed.
Step 104 is executed. Here, step S
On the scene list sorted in 103,
The processing for the highest priority scene is started. In other words, this scene is treated as the “current scene” and the subsequent processing is executed. The “highest priority scene” in step S104 is the scene with the highest priority except for the scene currently being output (scene C in FIG. 19). . That is, in the case of FIG. 19, the scene B is selected. However, for example, when the management state of the priority shown in FIG. 19 is obtained, if the scene C is not stored in the DSM-CC buffer 91, exceptionally, step S104 is performed so that the scene C is treated as the current scene. Is performed.
【0155】続くステップS105においては、上記ス
テップS104にて選択された現シーンのデータにより
形成されるモジュール(シーンモジュール)のデータサ
イズをチェックする。これは、例えば現シーンモジュー
ルに対応する制御情報であるDII(図8参照)をカル
ーセルのデータから取り込み、例えばDSM−CCデコ
ーダブロック83が、この取り込んだDIIにおけるモ
ジュールのデータサイズを示す情報を参照することで識
別が可能とされる。ここで得られた現シーンモジュール
のデータサイズの情報は一時保持されて、後述するステ
ップS107の判別処理に用いられる。In the following step S105, the data size of a module (scene module) formed by the data of the current scene selected in step S104 is checked. This means that, for example, DII (see FIG. 8), which is control information corresponding to the current scene module, is fetched from the carousel data. By doing so, identification becomes possible. The information on the data size of the current scene module obtained here is temporarily held and used for the determination processing in step S107 described later.
【0156】ステップS106においては、現シーンモ
ジュールがDSM−CCバッファ91に既に取り込まれ
ている状態にあるか否かが判別され、ここで肯定結果が
得られればステップS110に進んで、シーンリスト上
で、これまでの現シーンに対して次の優先順位が与えら
れているシーンを現シーンとして選択して、この現シー
ンとしての処理を開始させるための処理を実行する。こ
れに対して、ステップS106において否定結果が得ら
れた場合には、ステップS107の処理に移行する。In step S106, it is determined whether or not the current scene module has already been loaded into the DSM-CC buffer 91. If an affirmative result is obtained here, the process proceeds to step S110, and the process proceeds to step S110. Then, a scene having the next priority given to the current scene is selected as the current scene, and a process for starting the process as the current scene is executed. On the other hand, if a negative result is obtained in step S106, the process proceeds to step S107.
【0157】ステップS107においては、現在のDS
M−CCバッファ91の残り容量(データ取込可能容
量)が、ステップS105にてチェックされた現シーン
モジュールのサイズよりも大きいか否かを判別する。そ
して、肯定結果が得られた場合、つまり、現在のDSM
−CCバッファ91の残り容量として、現シーンモジュ
ールを取り込んで格納するだけの余裕があると判別され
た場合には、ステップS111に進んで現シーンモジュ
ールのデータをカルーセルからキュー71に蓄積し、こ
れをDSM−CCバッファ91に対して取り込んで格納
するための処理が実行される。この処理を実現するため
のCPU80の制御動作とこれに伴う各部の信号処理動
作は、例えば図20の説明において述べたとおりであ
る。そして、上記ステップS111の処理を実行した後
はステップS110の処理を経た上で、ステップS10
5の処理に戻るようにされる。In step S107, the current DS
It is determined whether or not the remaining capacity of the M-CC buffer 91 (capable data fetching capacity) is larger than the size of the current scene module checked in step S105. If a positive result is obtained, that is, the current DSM
If it is determined that the remaining capacity of the CC buffer 91 is large enough to capture and store the current scene module, the process proceeds to step S111 to accumulate the data of the current scene module from the carousel in the queue 71, Is performed in the DSM-CC buffer 91 in order to store the data. The control operation of the CPU 80 for realizing this processing and the signal processing operation of each unit accompanying the control operation are, for example, as described in the description of FIG. After executing the processing in step S111, the processing in step S110 is performed, and then the processing in step S10 is performed.
The process is returned to the process of step 5.
【0158】また、ステップS107において否定結果
が得られ、現在のDSM−CCバッファ91の残り容量
が、ステップS105にてチェックされた現シーンモジ
ュールのサイズよりも小さいと判別された場合には、ス
テップS108に進む。ステップS108においては、
現在のネクストシーンマネージャの優先順位管理と、現
在DSM−CCバッファ91に格納されているシーンモ
ジュールとを比較して、現在DSM−CCバッファ91
に格納されているシーンモジュールにおいて、現在最も
優先順位(プライオリティ)が低いものとして管理され
ているシーンモジュールを特定する。そして、次のステ
ップS109において、この特定されたシーンモジュー
ルのプライオリティが、現シーンよりも低いか否かを判
別するようにされる。If a negative result is obtained in step S107 and it is determined that the current remaining capacity of the DSM-CC buffer 91 is smaller than the size of the current scene module checked in step S105, Proceed to S108. In step S108,
By comparing the priority management of the current next scene manager with the scene module currently stored in the DSM-CC buffer 91, the current DSM-CC buffer 91
In the scene modules stored in the first scene module, the scene module currently managed as having the lowest priority (priority) is specified. Then, in the next step S109, it is determined whether or not the priority of the specified scene module is lower than that of the current scene.
【0159】ステップS109において、ステップS1
08により特定されたシーンモジュールのプライオリテ
ィが現シーンよりも低いとされた場合には、ステップS
112に進んで、この特定されたシーンモジュールをD
SM−CCバッファから削除してステップS107に戻
るようにされる。この処理により、現シーンモジュール
が取り込み可能なDSM−CCバッファ91の残り容量
が得られるまで、DSM−CCバッファ91から優先順
位(プライオリティ)の最も低いシーンモジュール(但
し現シーンよりもプライオリティが低いもののみが対象
となる)が削除されていくことになる。In step S109, step S1
If it is determined that the priority of the scene module specified by 08 is lower than that of the current scene, step S
Proceeding to 112, this identified scene module is
It deletes from the SM-CC buffer and returns to step S107. By this processing, until the remaining capacity of the DSM-CC buffer 91 that can be captured by the current scene module is obtained, the scene module with the lowest priority (priority) from the DSM-CC buffer 91 (however, a scene module with a lower priority than the current scene) Only the target) will be deleted.
【0160】そして、ステップS109において否定結
果が得られた場合、つまり、ステップS108にて特定
されたシーンモジュールのプライオリティが、現シーン
よりも高いことが判別された場合であるが、この段階で
は、結果的に、DSM−CCバッファ91に格納されて
いるシーンモジュールは、現在のネクストシーンマネー
ジャにより管理されているシーンの優先順位に対応して
いることになる。つまり、先に説明した具体例に従え
ば、図19に示したネクストシーンマネージャの管理に
対応して、図20(b)に示すシーンモジュールの格納
状態が得られるものである。この場合には、図のように
して、これまでのモジュール割付のための処理が終了さ
れることになる。Then, when a negative result is obtained in step S109, that is, when it is determined that the priority of the scene module specified in step S108 is higher than that of the current scene, at this stage, As a result, the scene module stored in the DSM-CC buffer 91 corresponds to the priority of the scene managed by the current next scene manager. That is, according to the specific example described above, the storage state of the scene module shown in FIG. 20B can be obtained in accordance with the management of the next scene manager shown in FIG. In this case, the processing for the module allocation up to now is completed as shown in the figure.
【0161】なお、本発明としては、DSM−CC方式
を採用した場合に限定されるものではなく、実施の形態
において説明した送信フォーマットに準ずる伝送方式で
あれば本発明の適用が可能とされる。また、本発明が適
用されるシステムとしてもデジタル衛星放送システムに
限定されるものではなく、例えばケーブルテレビジョン
などの放送や、インターネット等において適用すること
も可能である。The present invention is not limited to the case where the DSM-CC system is adopted, but the present invention can be applied to any transmission system conforming to the transmission format described in the embodiment. . Also, the system to which the present invention is applied is not limited to a digital satellite broadcasting system, but can be applied to, for example, broadcasting such as cable television and the Internet.
【0162】[0162]
【発明の効果】以上説明したように本発明は、伝送方式
として、1シーン分のシーンデータが原則1モジュール
を形成するものとされたうえで、1以上のモジュールか
らなる伝送データをカルーセル方式により伝送する場合
に対応する受信装置として、カルーセル(伝送情報)か
ら抽出してキュー(メモリ手段)に取り込むべきシーン
データとしてのモジュールを、シーンの優先順位に従っ
て決定するように規定される。例えば、キューに対する
モジュールの取込順を特に規定しない場合、表示出力に
必要なシーンデータを得て、これをシーンデータ格納手
段(DSM−CCバッファ)に取り込むまでには相応の
時間を要することになる。また、これを解消しようとし
て、目的のシーンデータとしてのモジュールが出来るだ
け迅速にシーンデータ格納手段にて得られるようにする
ためには、多くのキュー数が必要となってしまう。これ
に対して、本発明では、上記構成によって優先順位に従
ってシーンデータとしてのモジュールを取り込むように
されるため、制限されたキュー数の構成のもとであって
も、表示出力に必要、又は必要とされる可能性の高いシ
ーンデータが比較的迅速に得られることになる。つま
り、本発明では、キュー数が少なくてもシーン出力、及
びシーン切り換えに迅速に対応できることになる。ま
た、逆に言えば、本発明を適用せずに迅速なシーン出
力、シーン切り換えを実現しようとした場合と比較し
て、キュー数を削減することが可能であり、それだけI
RD(受信装置)の回路規模の縮小及び低コスト化を図
ることが可能となる。As described above, according to the present invention, as a transmission method, scene data for one scene forms one module in principle, and transmission data composed of one or more modules is transmitted by a carousel method. As a receiving apparatus corresponding to the case of transmission, a module as scene data to be extracted from a carousel (transmission information) and taken into a queue (memory means) is determined according to the priority of the scene. For example, when the order of taking modules into the queue is not specified, it takes a certain amount of time to obtain scene data necessary for display output and to take it into the scene data storage means (DSM-CC buffer). Become. Further, in order to solve this problem, a large number of queues is required in order to obtain a module as target scene data in the scene data storage means as quickly as possible. On the other hand, in the present invention, since the module as the scene data is taken in according to the priority according to the above configuration, even if the configuration has a limited number of cues, it is necessary or necessary for display output. Is obtained relatively quickly. That is, in the present invention, even if the number of cues is small, it is possible to quickly respond to scene output and scene switching. Conversely, the number of cues can be reduced as compared with a case in which quick scene output and scene switching are realized without applying the present invention.
It is possible to reduce the circuit scale and cost of the RD (receiving device).
【0163】また、現在出力されているシーンに応じて
変更される優先順位に応じて、受信データのカルーセル
から取り込むべきシーンデータとしてのモジュールが決
定されるため、常にシーン表示の切り換えに対応して、
シーンデータ格納手段には優先順位的に上位のシーンデ
ータから優先的に格納されている状態が得られることに
なる。この場合、シーン表示の切り換え操作によって選
択されるシーンのシーンデータがシーンデータ格納手段
に格納されている可能性が非常に高く、これにより、例
えばユーザによってシーン表示の切り換え操作が行われ
たとしても、ほとんどの場合において、そのシーンの切
り換えが迅速に行われることになる。この構成は、シー
ンデータ格納手段(DSM−CCバッファ)の容量に制
限があって、多数のシーンデータを格納することが出来
ないような条件の下で特に有効となる。Further, since the module as the scene data to be fetched from the carousel of the received data is determined according to the priority changed according to the currently output scene, it always corresponds to the switching of the scene display. ,
The state in which the scene data is stored in the scene data storage means in priority order from the scene data having the higher priority is obtained. In this case, there is a very high possibility that the scene data of the scene selected by the switching operation of the scene display is stored in the scene data storage means. Therefore, even if the switching operation of the scene display is performed by the user, for example, In most cases, the scene will be switched quickly. This configuration is particularly effective under the condition that the capacity of the scene data storage means (DSM-CC buffer) is limited and a large number of scene data cannot be stored.
【図1】本発明の実施の形態のデジタル衛星放送受信シ
ステムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a digital satellite broadcast receiving system according to an embodiment of the present invention.
【図2】本実施の形態における受信設備の構築例を示す
ブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a receiving facility according to the present embodiment.
【図3】IRDのためのリモートコントローラの外観を
示す正面図である。FIG. 3 is a front view showing the appearance of a remote controller for the IRD.
【図4】放送画面とGUI画面との切り換えを示す説明
図である。FIG. 4 is an explanatory diagram showing switching between a broadcast screen and a GUI screen.
【図5】地上局の構成例を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration example of a ground station.
【図6】地上局から送信されるデータを示すチャート図
である。FIG. 6 is a chart showing data transmitted from a ground station.
【図7】送信データの時分割多重化構造を示す説明図で
ある。FIG. 7 is an explanatory diagram showing a time division multiplexing structure of transmission data.
【図8】DSM−CCによる送信フォーマットを示す説
明図である。FIG. 8 is an explanatory diagram showing a transmission format by DSM-CC.
【図9】トランスポートストリームのデータ構造図であ
る。FIG. 9 is a data structure diagram of a transport stream.
【図10】PSIのテーブル構造を示す説明図である。FIG. 10 is an explanatory diagram showing a table structure of PSI.
【図11】IRDの構成を示す説明図である。FIG. 11 is an explanatory diagram showing a configuration of an IRD.
【図12】本実施の形態としてのデータサービスのディ
レクトリ構造に対するマッピング例を示す説明図であ
る。FIG. 12 is an explanatory diagram showing an example of mapping to a directory structure of a data service according to the present embodiment.
【図13】本実施の形態としてのデータサービスのディ
レクトリ構造に対する他のマッピング例を示す説明図で
ある。FIG. 13 is an explanatory diagram showing another example of mapping to the directory structure of the data service according to the present embodiment.
【図14】データサービスのディレクトリ構造の一例を
示す説明図である。FIG. 14 is an explanatory diagram illustrating an example of a directory structure of a data service.
【図15】データサービスのディレクトリ構造に対する
マッピング例を示す説明図である。FIG. 15 is an explanatory diagram showing an example of mapping to a directory structure of a data service.
【図16】本実施の形態のシーンデータのモジュールの
取込動作を示す説明図である。FIG. 16 is an explanatory diagram illustrating an operation of capturing a scene data module according to the present embodiment;
【図17】シーンのトランジション例を示す説明図であ
る。FIG. 17 is an explanatory diagram illustrating an example of a scene transition.
【図18】図17に示すシーンのトランジション例に従
った、ネクストシーンマネージャにおいて管理されるシ
ーン優先順位例を示す説明図である。FIG. 18 is an explanatory diagram showing an example of scene priorities managed by the next scene manager according to the example of the scene transition shown in FIG. 17;
【図19】図17に示すシーンのトランジション例に従
った、ネクストシーンマネージャにおいて管理されるシ
ーン優先順位例を示す説明図である。FIG. 19 is an explanatory diagram showing an example of the scene priority order managed by the next scene manager according to the example of the scene transition shown in FIG. 17;
【図20】図18から図19の遷移として示すシーン優
先順位の変更に応じたシーンデータのモジュールの取込
動作を示す説明図である。FIG. 20 is an explanatory diagram showing an operation of capturing a module of scene data according to a change in scene priority shown as a transition from FIG. 18 to FIG.
【図21】本実施の形態のシーン切り換えに応じたモジ
ュール割付けを実現するためのフローチャートである。FIG. 21 is a flowchart for realizing module assignment according to scene switching according to the present embodiment.
1 地上局、2 衛星、3 受信設備、5 課金サー
バ、6 テレビ番組素材サーバ、7 楽曲素材サーバ、
8 音声付加情報サーバ、9 GUIデータサーバ、1
0 キー情報サーバ、11 パラボラアンテナ、13
ストレージデバイス、13A MDレコーダ/プレー
ヤ、14 モニタ装置、16 IEEE1394バス、
21A テレビ番組表示エリア、21B リスト、21
C テキスト表示エリア、21D ジャケット表示エリ
ア、22 歌詞表示ボタン、23 プロフィール表示ボ
タン、24 情報表示ボタン、25 予約録音ボタン、
26予約済一覧表示ボタン、27 録音履歴ボタン、2
8 ダウンロードボタン、31 テレビ番組素材登録シ
ステム、32 楽曲素材登録システム、33 音声付加
情報登録システム、34 GUI用素材登録システム、
35 AVサーバ、36A MPEGオーディオエンコ
ーダ、36B ATRACエンコーダ、37音声付加情
報データベース、38 GUI素材データベース、39
テレビ番組送出システム、40A MPEGオーディ
オサーバ、40B MPEGオーディオサーバ、41
音声付加情報送出システム、42 GUIオーサリング
システム、43A MPEGオーディオ送出システム、
43B ATRACオーディオ送出システム、44 D
SM−CCエンコーダ、45 マルチプレクサ、46電
波送出システム、51 チューナ/フロントエンド部、
52 デスクランブラ、53 トランスポート部、54
MPEG2オーディオデコーダ、54A メモリ、5
5 MPEG2ビデオデコーダ、55A メモリ、56
D/Aコンバータ、57 スイッチ回路、58 表示
処理部、59 光デジタル出力インターフェイス、60
IEEE1394インターフェイス、61 マンマシ
ンインターフェイス、62 ICカードスロット、63
モデム、64 リモートコントローラ、65 ICカ
ード、70 デマルチプレクサ、71 キュー、81
制御処理部、82 DeMUXドライバ、83 DSM
−CCデコーダブロック、84 MHEGデコーダブロ
ック、90 メインメモリ、91 DSM−CCバッフ
ァ、101 電源キー、102 数字キー、103 画
面表示切換キー、104 インタラクティブ切換キー、
105a 矢印キー、105 EPGキーパネル部、1
06 チャンネルキー、T1 入力端子、T2 アナロ
グビデオ出力端子、T3 アナログオーディオ出力端
子、T4 アナログオーディオ出力端子1 ground station, 2 satellites, 3 receiving facilities, 5 billing server, 6 TV program material server, 7 music material server,
8 voice additional information server, 9 GUI data server, 1
0 key information server, 11 parabolic antenna, 13
Storage device, 13A MD recorder / player, 14 monitor device, 16 IEEE1394 bus,
21A TV program display area, 21B list, 21
C text display area, 21D jacket display area, 22 lyrics display button, 23 profile display button, 24 information display button, 25 reservation recording button,
26 reserved list display button, 27 recording history button, 2
8 download button, 31 TV program material registration system, 32 music material registration system, 33 audio additional information registration system, 34 GUI material registration system,
35 AV server, 36A MPEG audio encoder, 36B ATRAC encoder, 37 audio additional information database, 38 GUI material database, 39
TV program transmission system, 40A MPEG audio server, 40B MPEG audio server, 41
Audio additional information transmission system, 42 GUI authoring system, 43A MPEG audio transmission system,
43B ATRAC audio transmission system, 44D
SM-CC encoder, 45 multiplexer, 46 radio wave transmission system, 51 tuner / front end unit,
52 descrambler, 53 transport unit, 54
MPEG2 audio decoder, 54A memory, 5
5 MPEG2 video decoder, 55A memory, 56
D / A converter, 57 switch circuit, 58 display processing unit, 59 optical digital output interface, 60
IEEE 1394 interface, 61 man-machine interface, 62 IC card slot, 63
Modem, 64 remote controller, 65 IC card, 70 demultiplexer, 71 queue, 81
Control processing unit, 82 DeMUX driver, 83 DSM
-CC decoder block, 84 MHEG decoder block, 90 main memory, 91 DSM-CC buffer, 101 power key, 102 numeric key, 103 screen display switching key, 104 interactive switching key,
105a arrow keys, 105 EPG key panel section, 1
06 channel key, T1 input terminal, T2 analog video output terminal, T3 analog audio output terminal, T4 analog audio output terminal
───────────────────────────────────────────────────── フロントページの続き (72)発明者 北里 直久 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 斎藤 潤也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C025 BA27 CA01 CB08 CB09 DA01 DA04 DA05 5C064 BA01 BB01 BB05 BB07 BC06 BC10 BC16 BC18 BC20 BC23 BC25 BD02 BD08 BD13 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Naohisa Kitasato 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Junya Saito 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F term (reference) 5C025 BA27 CA01 CB08 CB09 DA01 DA04 DA05 5C064 BA01 BB01 BB05 BB07 BC06 BC10 BC16 BC18 BC20 BC23 BC25 BD02 BD08 BD13
Claims (2)
は複数の情報伝送単位に対応するものとされ、1以上の
上記情報伝送単位から成る伝送データが循環的に送信さ
れる送信情報を受信する受信装置として、 上記送信情報を受信して受信データとして取り込む受信
手段と、 上記情報伝送単位でデータを一時蓄積可能なメモリ手段
を備え、上記受信データから情報伝送単位でデータの抽
出を行って上記メモリ手段に蓄積させ、このメモリ手段
に保持されたシーンデータとしての情報伝送単位につい
て、シーンデータ格納用のシーンデータ格納手段に対し
て伝送して格納させるシーンデータ取込手段と、 上記シーンデータ格納手段に格納されているシーンデー
タのうちから、所要のシーンデータを利用してシーン出
力を行うことのできるシーン出力手段と、 上記受信手段により受信された送信情報からシーンの優
先順位を示すシーン優先順位情報を獲得する情報獲得手
段と、 上記情報獲得手段により得られたシーン優先順位情報に
基づいて、受信データから抽出してメモリ手段に蓄積さ
せるべきシーンデータとしての情報伝送単位を選択する
ように上記シーンデータ取込手段に対して制御を行う制
御手段と、 を備えていることを特徴とする受信装置。1. Scene data forming one scene corresponds to one or a plurality of information transmission units, and transmission information including one or more information transmission units is transmitted cyclically. As a receiving device, there is provided a receiving unit that receives the transmission information and captures the received data as reception data, and a memory unit that can temporarily store data in the information transmission unit, and performs data extraction in the information transmission unit from the reception data. Scene data capturing means for storing the information transmission unit as scene data held in the memory means and transmitting and storing the information transmission unit to scene data storage means for storing scene data; A scene that can be used to output a scene using required scene data from among the scene data stored in the means. Output means; information obtaining means for obtaining scene priority information indicating the priority of a scene from the transmission information received by the receiving means; and receiving data based on the scene priority information obtained by the information obtaining means. Control means for controlling the scene data acquisition means so as to select an information transmission unit as scene data to be extracted from and stored in the memory means.
て変更されるシーンの優先順位を上記シーン優先順位情
報に基づいて判別し、 この判別されたシーン優先順位に従って上記シーンデー
タ格納手段に格納されるシーンデータが得られるように
して、受信データから抽出してメモリ手段に蓄積させる
べきシーンデータとしての情報伝送単位が選択されるよ
うに上記シーンデータ取込手段に対して制御を行うこと
を特徴とする請求項1に記載の受信装置。2. The control means determines a priority of a scene changed according to a scene output by the scene output means on the basis of the scene priority information, and according to the determined scene priority. The scene data capturing means is provided so that scene data stored in the scene data storing means can be obtained, and an information transmission unit as scene data to be extracted from the received data and stored in the memory means is selected. The receiving device according to claim 1, wherein control is performed on the receiving device.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20385798A JP4378780B2 (en) | 1998-07-17 | 1998-07-17 | Receiving apparatus and receiving method |
EP06076318A EP1705918B1 (en) | 1998-07-14 | 1999-07-14 | Data receiving apparatus |
DE69943228T DE69943228D1 (en) | 1998-07-14 | 1999-07-14 | Data receiving device |
KR1020007002686A KR100641594B1 (en) | 1998-07-14 | 1999-07-14 | Data transmission control method, data transmission method, data transmitter, and receiver |
CNB998015814A CN100382498C (en) | 1998-07-14 | 1999-07-14 | Data transmission control method, data transmission method, data transmitter, and receiver |
EP99929823A EP1014620B1 (en) | 1998-07-14 | 1999-07-14 | Data transmission control method, data transmission method, data transmitter, and receiver |
PCT/JP1999/003787 WO2000004676A1 (en) | 1998-07-14 | 1999-07-14 | Data transmission control method, data transmission method, data transmitter, and receiver |
US09/521,098 US6966065B1 (en) | 1998-07-14 | 2000-03-07 | Data transmission control method, data transmitting method, data transmitting apparatus, and receiving apparatus |
US11/217,917 US8209734B2 (en) | 1998-07-14 | 2005-09-01 | Data transmission control method, data transmitting method, data transmitting apparatus, and receiving apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20385798A JP4378780B2 (en) | 1998-07-17 | 1998-07-17 | Receiving apparatus and receiving method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000036946A true JP2000036946A (en) | 2000-02-02 |
JP2000036946A5 JP2000036946A5 (en) | 2005-09-02 |
JP4378780B2 JP4378780B2 (en) | 2009-12-09 |
Family
ID=16480854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20385798A Expired - Fee Related JP4378780B2 (en) | 1998-07-14 | 1998-07-17 | Receiving apparatus and receiving method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4378780B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1148730A2 (en) * | 2000-03-31 | 2001-10-24 | Matsushita Electric Industrial Co., Ltd. | Data broadcast apparatus for controlling presentation timing of additional data with high precision |
WO2002001869A1 (en) * | 2000-06-26 | 2002-01-03 | Matsushita Electric Industrial Co., Ltd. | Receiving storage device, transmission device, broadcasting system, receiving storage method, transmission method, broadcasting method, program, and medium |
JP2002044551A (en) * | 2000-07-26 | 2002-02-08 | Toshiba Corp | Broadcast reception display device and broadcast reception display method |
JP2002044553A (en) * | 2000-07-26 | 2002-02-08 | Toshiba Corp | Broadcast reception display device and broadcast reception display method |
JP2002064818A (en) * | 2000-08-21 | 2002-02-28 | Sony Corp | Data transmission system, apparatus and method for transmitting data, apparatus and method for processing data as well as recording medium |
JP2002094472A (en) * | 2000-05-30 | 2002-03-29 | Matsushita Electric Ind Co Ltd | Data acquisition device and method |
JP2002158626A (en) * | 2000-08-25 | 2002-05-31 | Matsushita Electric Ind Co Ltd | Contents editor, contents-editing method and contents- editing program, and computer-readable recording medium |
JP2004502350A (en) * | 2000-06-30 | 2004-01-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Efficient object carousel recording |
US6871002B1 (en) | 1999-10-06 | 2005-03-22 | Nec Corporation | DSM-CC carousel receiver, receiving method used therefor, and recording medium storing a control program therefor |
US8565317B2 (en) | 2000-02-29 | 2013-10-22 | Sony Corporation | User interface system, scene description generating device and method, scene description converting device and method, recording medium, and sending medium |
JP5725250B1 (en) * | 2014-11-27 | 2015-05-27 | ソニー株式会社 | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
JP5725235B1 (en) * | 2014-04-22 | 2015-05-27 | ソニー株式会社 | Receiving apparatus and receiving method, and transmitting apparatus and transmitting method |
JP5725249B1 (en) * | 2014-11-27 | 2015-05-27 | ソニー株式会社 | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
JP2015207993A (en) * | 2015-03-04 | 2015-11-19 | ソニー株式会社 | Receiving device and receiving method, and transmitting device and transmitting method |
-
1998
- 1998-07-17 JP JP20385798A patent/JP4378780B2/en not_active Expired - Fee Related
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6871002B1 (en) | 1999-10-06 | 2005-03-22 | Nec Corporation | DSM-CC carousel receiver, receiving method used therefor, and recording medium storing a control program therefor |
US8565317B2 (en) | 2000-02-29 | 2013-10-22 | Sony Corporation | User interface system, scene description generating device and method, scene description converting device and method, recording medium, and sending medium |
US6778222B2 (en) | 2000-03-31 | 2004-08-17 | Matsushita Electric Industrial Co., Ltd. | Data broadcast apparatus for controlling presentation timing of additional data with high precision |
EP1148730A3 (en) * | 2000-03-31 | 2003-10-08 | Matsushita Electric Industrial Co., Ltd. | Data broadcast apparatus for controlling presentation timing of additional data with high precision |
EP1148730A2 (en) * | 2000-03-31 | 2001-10-24 | Matsushita Electric Industrial Co., Ltd. | Data broadcast apparatus for controlling presentation timing of additional data with high precision |
JP2002094472A (en) * | 2000-05-30 | 2002-03-29 | Matsushita Electric Ind Co Ltd | Data acquisition device and method |
WO2002001869A1 (en) * | 2000-06-26 | 2002-01-03 | Matsushita Electric Industrial Co., Ltd. | Receiving storage device, transmission device, broadcasting system, receiving storage method, transmission method, broadcasting method, program, and medium |
US7849492B2 (en) | 2000-06-26 | 2010-12-07 | Panasonic Corporation | Receiving accumulating apparatus, sending apparatus, broadcasting system, receive accumulating method, sending method, broadcasting method, program and medium |
KR100784598B1 (en) * | 2000-06-26 | 2007-12-11 | 마츠시타 덴끼 산교 가부시키가이샤 | Receiving storage device, transmission device, broadcasting system, receiving storage method, transmission method, broadcasting method, program, and medium |
JP2004502350A (en) * | 2000-06-30 | 2004-01-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Efficient object carousel recording |
JP2002044553A (en) * | 2000-07-26 | 2002-02-08 | Toshiba Corp | Broadcast reception display device and broadcast reception display method |
JP2002044551A (en) * | 2000-07-26 | 2002-02-08 | Toshiba Corp | Broadcast reception display device and broadcast reception display method |
JP2002064818A (en) * | 2000-08-21 | 2002-02-28 | Sony Corp | Data transmission system, apparatus and method for transmitting data, apparatus and method for processing data as well as recording medium |
JP2002158626A (en) * | 2000-08-25 | 2002-05-31 | Matsushita Electric Ind Co Ltd | Contents editor, contents-editing method and contents- editing program, and computer-readable recording medium |
JP5725235B1 (en) * | 2014-04-22 | 2015-05-27 | ソニー株式会社 | Receiving apparatus and receiving method, and transmitting apparatus and transmitting method |
US10681114B2 (en) | 2014-04-22 | 2020-06-09 | Sony Corporation | Reception apparatus, reception method, transmission apparatus, and transmission method for transmission or reception using a signaling message |
JP5725250B1 (en) * | 2014-11-27 | 2015-05-27 | ソニー株式会社 | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
JP5725249B1 (en) * | 2014-11-27 | 2015-05-27 | ソニー株式会社 | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
JP2015207993A (en) * | 2015-03-04 | 2015-11-19 | ソニー株式会社 | Receiving device and receiving method, and transmitting device and transmitting method |
Also Published As
Publication number | Publication date |
---|---|
JP4378780B2 (en) | 2009-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100641594B1 (en) | Data transmission control method, data transmission method, data transmitter, and receiver | |
US8606172B2 (en) | Control method, control apparatus, data receiving and recording method, data receiver and receiving method | |
US8826111B2 (en) | Receiving apparatus and method for display of separately controllable command objects,to create superimposed final scenes | |
JP5045535B2 (en) | Receiving apparatus and receiving method | |
JP2002010182A (en) | Method for storing data, receiver realizing the same as well as broadcasting system | |
JP4378780B2 (en) | Receiving apparatus and receiving method | |
JP2001024995A (en) | Broadcasting device, broadcasting method and receiver | |
JP4378777B2 (en) | Broadcast receiving apparatus and broadcast receiving method | |
JP2000333138A (en) | Information processing device and method | |
JP4016160B2 (en) | Data receiving / recording method and data receiving apparatus | |
JP2000295586A (en) | Information processor and information processing method for broadcast | |
JP4296631B2 (en) | Broadcasting method and receiving apparatus | |
JP2000333043A (en) | Information processing unit and its method | |
JP4366742B2 (en) | Receiver | |
JP2001024612A (en) | Broadcasting monitoring device | |
JP2000032415A (en) | Receiver | |
JP4378778B2 (en) | Receiving apparatus and receiving method | |
JP2000331465A (en) | Information processing device and its method | |
JP2001022625A (en) | Device and method for data recording and device and method for data acquisition | |
JP2000032362A (en) | Device and method for transmitting information | |
JP2000333041A (en) | Device and method for information processing | |
JP2000295638A (en) | Broadcasting equipment monitoring device | |
JP4499205B2 (en) | Data receiving method, data receiving apparatus and program | |
JP2000286733A (en) | Information processing unit and information processing method | |
JP2001024606A (en) | Information transmission system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090519 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090825 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090907 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131002 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |