JP2000036795A - Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data - Google Patents

Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data

Info

Publication number
JP2000036795A
JP2000036795A JP10204004A JP20400498A JP2000036795A JP 2000036795 A JP2000036795 A JP 2000036795A JP 10204004 A JP10204004 A JP 10204004A JP 20400498 A JP20400498 A JP 20400498A JP 2000036795 A JP2000036795 A JP 2000036795A
Authority
JP
Japan
Prior art keywords
data
music
information
accompanying
presenting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10204004A
Other languages
Japanese (ja)
Inventor
Ichiro Hamada
一郎 濱田
Hiroshi Inoue
啓 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10204004A priority Critical patent/JP2000036795A/en
Publication of JP2000036795A publication Critical patent/JP2000036795A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To distribute the data of a piece of music, to present information of lyrics or the like accompanied with a piece of music synchronously with the piece of music, and to flexibly utilize the information. SOLUTION: Additional information, such as the lyrics accompanying a piece of download enable music, is transmitted from transmitting equipment in the format of an additional music information file. The additional music information file has a file header part 110, one or more data parts 111 and sub file header parts 112 provided for each data part 111. The additional information collected into one file is divided for each prescribed unit and stored in the data parts 111. The display start time and display end time of data stored in the corresponding data part 111 are described in the sub file header part 112. Based on the time information described in the sub file header part 112, receiving equipment displays the data stored in the data part 111 synchronously with the presentation of the piece of music.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル衛星放送
等により、楽曲のデータの配信を可能とするデータ送信
装置および方法、データ受信装置および方法ならびにデ
ータ送受信システムおよび方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data transmitting apparatus and method, a data receiving apparatus and method, and a data transmitting and receiving system and method capable of distributing music data by digital satellite broadcasting or the like.

【0002】[0002]

【従来の技術】近年、デジタル衛星放送の普及が進んで
いる。デジタル衛星放送では、既存のアナログ放送に比
べて、ノイズやフェージングに強く、高品質の信号を伝
送することが可能である。また、デジタル衛星放送で
は、周波数利用効率が向上され、多チャンネル化を図る
ことができる。例えば、デジタル衛星放送では、1つの
衛星で数百チャンネルを確保することが可能である。こ
のようなデジタル衛星放送では、スポーツ、映画、音
楽、ニュース等の専門チャンネルが多数用意されてお
り、これらの専門チャンネルでは、それぞれの専門のコ
ンテンツのプログラムが放映されている。
2. Description of the Related Art In recent years, digital satellite broadcasting has been widely used. Digital satellite broadcasting is more resistant to noise and fading than conventional analog broadcasting, and can transmit high-quality signals. In digital satellite broadcasting, the frequency use efficiency is improved, and multi-channels can be achieved. For example, in digital satellite broadcasting, one satellite can secure several hundred channels. In such digital satellite broadcasting, a large number of specialized channels for sports, movies, music, news, etc. are prepared, and in these specialized channels, programs of respective specialized contents are broadcast.

【0003】これらの専門チャンネルの中で、音楽チャ
ンネルは、人気のあるチャンネルの1つであり、主に新
曲やヒット曲の紹介等を行うプロモーション用の番組が
放送されている。
[0003] Among these specialty channels, the music channel is one of the popular channels, and a promotion program mainly for introducing new songs and hit songs is broadcast.

【0004】[0004]

【発明が解決しようとする課題】上述のように、従来の
音楽チャンネルでは、新曲紹介やヒット曲の番組が動画
と音声で送られている。視聴者は、このような音楽チャ
ンネルを見ていて気に入った楽曲があると、紹介されて
いる楽曲のCD等を購入して、楽しみたいと考えること
がある。また、その楽曲のアーティストの情報や、その
楽曲の収められているアルバムの情報を知りたくなるこ
とがある。そこで、音楽番組を見ていて、その楽曲のア
ーティストの情報やその楽曲の収められているアルバム
の情報を知りたくなったら、その場でその情報が得ら
れ、また、気に入った楽曲があったら、その楽曲のオー
ディオデータをダウンロードできれば非常に便利であ
る。ところが、従来の音楽チャンネルでは、楽曲に関す
る動画と音声が一方的に送られるものであり、このよう
な要請には応えられない。
As described above, in a conventional music channel, a new song introduction or a hit song program is sent as a moving image and a sound. When the viewer sees such a music channel and finds a favorite song, the viewer may want to purchase a CD or the like of the introduced song and enjoy it. Further, there are times when it is desired to know the information of the artist of the music or the information of the album in which the music is stored. So, if you are watching a music program and want to know the artist information of the song or the album information that contains the song, you can get the information on the spot, and if you find a song you like, It would be very convenient if you could download the audio data for that song. However, in the conventional music channel, a moving image and a sound related to music are unilaterally transmitted, and such a request cannot be satisfied.

【0005】そこで、このような問題点を解決するため
に、音楽チャンネルで放送されている音楽に関する情報
を簡単に得ることができると共に、その楽曲データをデ
ータ蓄積装置に簡単にダウンロードできるようにした音
楽コンテンツ配信システムが提案されている(平成9年
特許願第308488号)。
Therefore, in order to solve such a problem, information on music broadcast on a music channel can be easily obtained, and the music data can be easily downloaded to a data storage device. A music content distribution system has been proposed (1997 Patent Application No. 308488).

【0006】ところで、従来より、カラオケ等の音楽ア
プリケーションには、テキストや画像を表示可能なディ
スプレイ装置を使用することを前提として、楽曲に対し
て、歌詞や画像等の情報を固定的に付随させるようにし
たものがあった。例えば、レーザディスク(LD)を用
いるカラオケのアプリケーションでは、ディスクに画像
情報と音声情報が同時に収録され、画像情報と音声情報
は密接に対応づけられている。また、歌詞のようなテキ
スト情報は、予め画像情報に対して埋め込まれている。
従って、このようなアプリケーションでは、楽曲に付随
する歌詞や画像等の付随情報を、予め決められた形態で
しか提示することができず、柔軟性に乏しいという問題
点があった。例えば、歌詞や画像等の付随情報を単独で
利用したり、通常は楽曲に同期して一部ずつ順次表示さ
れる歌詞を一括して表示させたりすることはできなかっ
た。
[0006] Conventionally, music applications such as karaoke are presumed to use a display device capable of displaying text and images, and information such as lyrics and images is fixedly attached to music. There was something like that. For example, in a karaoke application using a laser disk (LD), image information and audio information are simultaneously recorded on the disk, and the image information and audio information are closely associated with each other. Text information such as lyrics is embedded in the image information in advance.
Therefore, in such an application, accompanying information such as lyrics and images accompanying the music can be presented only in a predetermined form, and there is a problem that flexibility is poor. For example, it has not been possible to use accompanying information such as lyrics and images alone or to collectively display lyrics that are usually displayed part by part in synchronization with music.

【0007】楽曲データをデータ蓄積装置にダウンロー
ドできるようにした音楽コンテンツ配信システムにおい
ても、提供する楽曲に対して歌詞や画像等の情報を付随
させることが考えられる。しかしながら、この場合も、
上述のように、画像情報と音声情報を密接に対応づける
と共にテキスト情報を予め画像情報に対して埋め込む
と、柔軟性に乏しいシステムになってしまうという問題
点がある。
[0007] In a music content distribution system in which music data can be downloaded to a data storage device, it is conceivable to add information such as lyrics and images to the music to be provided. However, also in this case,
As described above, if the image information and the audio information are closely associated with each other and the text information is embedded in the image information in advance, there is a problem that the system becomes inflexible.

【0008】本発明はかかる問題点に鑑みてなされたも
ので、その目的は、楽曲のデータの配信を可能とすると
共に、楽曲に付随する情報を、楽曲と同期して提示可能
とし、且つ柔軟に利用可能としたデータ送信装置および
方法、データ受信装置および方法ならびにデータ送受信
システムおよび方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its object to enable distribution of music data, and to enable information accompanying the music to be presented in synchronization with the music, and to be flexible. It is an object of the present invention to provide a data transmission device and method, a data reception device and method, and a data transmission / reception system and method which can be used for a computer.

【0009】[0009]

【課題を解決するための手段】本発明のデータ送信装置
は、楽曲のデータと、楽曲に付随して提示される付随情
報とこの付随情報を楽曲の提示に同期して提示するため
の時間情報とを対応づけたデータ構造の付随データとを
生成するデータ生成手段と、このデータ生成手段によっ
て生成されたデータを送信する送信手段とを備えたもの
である。
SUMMARY OF THE INVENTION A data transmission apparatus according to the present invention comprises: music data; accompanying information presented along with the music; and time information for presenting the accompanying information in synchronization with the music presentation. And data transmitting means for transmitting the data generated by the data generating means.

【0010】本発明のデータ送信方法は、楽曲のデータ
と、楽曲に付随して提示される付随情報とこの付随情報
を楽曲の提示に同期して提示するための時間情報とを対
応づけたデータ構造の付随データとを生成し、これらの
生成されたデータを送信するものである。
The data transmission method according to the present invention is a data transmission method in which music data, accompanying information presented along with the music, and time information for presenting the accompanying information in synchronization with the presentation of the music. It generates the associated data of the structure and transmits the generated data.

【0011】本発明のデータ受信装置は、楽曲のデータ
と、楽曲に付随して提示される付随情報とこの付随情報
を楽曲の提示に同期して提示するための時間情報とを対
応づけたデータ構造の付随データとを受信する受信手段
と、この受信手段によって受信した楽曲のデータに基づ
いて楽曲の提示のための処理を行うと共に、受信手段に
よって受信した付随データ中の付随情報を楽曲の提示に
同期して提示するために、付随データ中の時間情報に基
づいて付随データ中の付随情報を提示するための処理を
行う提示処理手段とを備えたものである。
[0011] The data receiving apparatus of the present invention is a data receiving apparatus which associates music data, accompanying information presented accompanying the music, and time information for presenting the accompanying information in synchronization with the presentation of the music. Receiving means for receiving the accompanying data of the structure, performing a process for presenting the music based on the music data received by the receiving means, and presenting the accompanying information in the accompanying data received by the receiving means to the music And a presentation processing means for performing a process for presenting the accompanying information in the accompanying data based on the time information in the accompanying data.

【0012】本発明のデータ受信方法は、楽曲のデータ
と、楽曲に付随して提示される付随情報とこの付随情報
を楽曲の提示に同期して提示するための時間情報とを対
応づけたデータ構造の付随データとを受信し、受信した
楽曲のデータに基づいて楽曲の提示のための処理を行う
と共に、受信した付随データ中の付随情報を楽曲の提示
に同期して提示するために、付随データ中の時間情報に
基づいて付随データ中の付随情報を提示するための処理
を行うものである。
According to the data receiving method of the present invention, there is provided a data receiving apparatus which associates music data, accompanying information presented along with the music, and time information for presenting the accompanying information in synchronization with the presentation of the music. In addition to receiving the accompanying data of the structure and performing processing for presenting the music based on the received music data, the accompanying information in the received accompanying data is presented in synchronization with the presentation of the music. The processing for presenting the accompanying information in the accompanying data is performed based on the time information in the data.

【0013】本発明のデータ送受信システムは、データ
送信装置とデータ受信装置とを備えている。データ送信
装置は、楽曲のデータと、楽曲に付随して提示される付
随情報とこの付随情報を楽曲の提示に同期して提示する
ための時間情報とを対応づけたデータ構造の付随データ
とを生成するデータ生成手段と、このデータ生成手段に
よって生成されたデータを送信する送信手段とを有して
いる。データ受信装置は、データ送信装置より送信され
る楽曲のデータと付随データとを受信する受信手段と、
この受信手段によって受信した楽曲のデータに基づいて
楽曲の提示のための処理を行うと共に、受信手段によっ
て受信した付随データ中の付随情報を楽曲の提示に同期
して提示するために、付随データ中の時間情報に基づい
て付随データ中の付随情報を提示するための処理を行う
提示処理手段とを有している。
[0013] The data transmitting / receiving system of the present invention includes a data transmitting device and a data receiving device. The data transmission device transmits the music data, the accompanying information presented along with the music, and the accompanying data having a data structure in which the accompanying information is associated with time information for presenting the accompanying information in synchronization with the presentation of the music. It has data generating means for generating, and transmitting means for transmitting data generated by the data generating means. A data receiving device, receiving means for receiving music data and accompanying data transmitted from the data transmitting device,
In order to perform a process for presenting music based on the music data received by the receiving means and to present the accompanying information in the accompanying data received by the receiving means in synchronization with the presentation of the music, the accompanying data And a presentation processing means for performing a process for presenting the accompanying information in the accompanying data based on the time information.

【0014】本発明のデータ送受信方法は、楽曲のデー
タと、楽曲に付随して提示される付随情報とこの付随情
報を楽曲の提示に同期して提示するための時間情報とを
対応づけたデータ構造の付随データとを生成し、これら
の生成されたデータを送信し、送信される楽曲のデータ
と付随データとを受信し、受信した楽曲のデータに基づ
いて楽曲の提示のための処理を行うと共に、受信した付
随データ中の付随情報を楽曲の提示に同期して提示する
ために、付随データ中の時間情報に基づいて付随データ
中の付随情報を提示するための処理を行うものである。
According to the data transmission / reception method of the present invention, data of music, associated information presented along with the music, and time information for presenting the accompanying information in synchronization with the presentation of the music are associated with each other. Generates the accompanying data of the structure, transmits the generated data, receives the transmitted music data and the accompanying data, and performs a process for presenting the music based on the received music data. At the same time, in order to present the accompanying information in the received accompanying data in synchronization with the presentation of the music, a process for presenting the accompanying information in the accompanying data is performed based on the time information in the accompanying data.

【0015】本発明のデータ送信装置または本発明のデ
ータ送信方法では、楽曲のデータと、楽曲に付随して提
示される付随情報とこの付随情報を楽曲の提示に同期し
て提示するための時間情報とを対応づけたデータ構造の
付随データとが生成され、これらの生成されたデータが
送信される。
In the data transmitting apparatus or the data transmitting method of the present invention, the music data, the accompanying information presented along with the music, and the time for presenting the accompanying information in synchronization with the presentation of the music. Ancillary data having a data structure in which information is associated with the information is generated, and the generated data is transmitted.

【0016】本発明のデータ受信装置または本発明のデ
ータ受信方法では、楽曲のデータと、楽曲に付随して提
示される付随情報とこの付随情報を楽曲の提示に同期し
て提示するための時間情報とを対応づけたデータ構造の
付随データとが受信され、受信された楽曲のデータに基
づいて楽曲の提示のための処理が行われると共に、受信
された付随データ中の付随情報を楽曲の提示に同期して
提示するために、付随データ中の時間情報に基づいて付
随データ中の付随情報を提示するための処理が行われ
る。
In the data receiving apparatus or the data receiving method of the present invention, the music data, the accompanying information presented along with the music, and the time for presenting the accompanying information in synchronization with the presentation of the music. The accompanying data having a data structure in which the information is associated with the received data is received, a process for presenting the music is performed based on the received music data, and the accompanying information in the received accompanying data is presented to the music. In order to present the associated information in the associated data, a process for presenting the associated information in the associated data is performed based on the time information in the associated data.

【0017】本発明のデータ送受信システムまたは本発
明のデータ送受信方法では、楽曲のデータと、楽曲に付
随して提示される付随情報とこの付随情報を楽曲の提示
に同期して提示するための時間情報とを対応づけたデー
タ構造の付随データとが生成され、これらの生成された
データが送信され、送信される楽曲のデータと付随デー
タとが受信され、受信された楽曲のデータに基づいて楽
曲の提示のための処理が行われると共に、受信された付
随データ中の付随情報を楽曲の提示に同期して提示する
ために、付随データ中の時間情報に基づいて付随データ
中の付随情報を提示するための処理が行われる。
In the data transmission / reception system of the present invention or the data transmission / reception method of the present invention, music data, accompanying information presented along with the music, and time for presenting the accompanying information in synchronization with the presentation of the music. The associated data of a data structure in which information is associated with the data is generated, the generated data is transmitted, the data of the transmitted music and the associated data are received, and the music based on the received music data is received. Is performed, and the accompanying information in the accompanying data is presented based on the time information in the accompanying data in order to present the accompanying information in the received accompanying data in synchronization with the presentation of the music. Is performed.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】本発明が適用されるシステムは、デジタル
衛星放送を使用して音楽番組を放送すると共に、この音
楽番組と関連するオーディオデータを配信することによ
り、視聴者が音楽番組を試聴できるようにし、更に、試
聴して気に入った楽曲があった場合に、その場でその楽
曲を簡単に購入できるようにしたものである。
The system to which the present invention is applied broadcasts a music program using digital satellite broadcasting and distributes audio data associated with the music program so that a viewer can listen to the music program. In addition, when the user listens to a song that he / she likes through trial listening, the user can easily purchase the song on the spot.

【0020】図1は、本発明が適用される音楽コンテン
ツ配信システムの全体構成を示したものである。この音
楽コンテンツ配信システムは、各種の信号を多重化し
て、衛星2に対して送信するデジタル衛星放送用の地上
局1と、この地上局1に接続された課金サーバ5、テレ
ビジョン番組(以下、テレビ番組またはTV番組と記
す。)素材サーバ6、楽曲素材サーバ7、音声付加情報
サーバ8、グラフィカルユーザインタフェース(Graphi
cal User Interface;以下、GUIと記す。)データサ
ーバ9およびキー情報サーバ10を備えている。衛星2
は、地上局1から送られてきた信号を地上に向けて送信
するようになっている。衛星2には、複数のトランスポ
ンダが搭載されている。1つのトランスポンダは、例え
ば30Mbpsの伝送能力を有している。
FIG. 1 shows the overall configuration of a music content distribution system to which the present invention is applied. This music content distribution system includes a digital satellite broadcasting ground station 1 for multiplexing various signals and transmitting the multiplexed signals to a satellite 2, a billing server 5 connected to the ground station 1, and a television program (hereinafter, referred to as a television program). Material server 6, music material server 7, additional audio information server 8, graphical user interface (Graphic)
cal User Interface; hereinafter, referred to as GUI. A) a data server 9 and a key information server 10; Satellite 2
Transmits the signal transmitted from the ground station 1 to the ground. The satellite 2 is equipped with a plurality of transponders. One transponder has a transmission capacity of, for example, 30 Mbps.

【0021】音楽コンテンツ配信システムは、更に、地
上局1から送信された信号を衛星2を介して受信するた
めの、例えば各家庭毎の受信設備3を備えている。受信
設備3は、衛星2からの信号を受信するためのパラボラ
アンテナ11と、このパラボラアンテナ11で受信した
信号を、所定の周波数の信号に変換するコンバータであ
るローノイズブロックダウンコンバータ(Low Noise Bl
ock Downconverter ;以下、LNBと記す。)15と、
このLNB15の出力信号を入力する受信機としてのイ
ンテグレイテッドレシーバ・デコーダ(Integrated Rec
eiver Decoder;以下、IRDと記す。)12と、この
IRD12に接続されたストレージデバイス13および
テレビジョン受像機14とを有している。IRD12
は、例えば電話回線4を介して、課金サーバ5に接続さ
れるようになっている。
The music content distribution system further includes, for example, a receiving facility 3 for each home for receiving a signal transmitted from the ground station 1 via the satellite 2. The receiving equipment 3 includes a parabolic antenna 11 for receiving a signal from the satellite 2 and a low noise block down converter (Low Noise Bl converter) that converts a signal received by the parabolic antenna 11 into a signal of a predetermined frequency.
ock Downconverter; hereinafter, referred to as LNB. ) 15,
An integrated receiver / decoder (Integrated Rec / Receiver) as a receiver for inputting the output signal of the LNB 15
eiver Decoder; hereinafter, referred to as IRD. ) 12 and a storage device 13 and a television receiver 14 connected to the IRD 12. IRD12
Is connected to a billing server 5 via, for example, a telephone line 4.

【0022】このように構成された音楽コンテンツ配信
システムでは、デジタル衛星放送の地上局1には、テレ
ビ番組素材サーバ6からのテレビ番組放送の素材と、楽
曲素材サーバ7からの楽曲データの素材と、音声付加情
報サーバ8からの音声付加情報と、GUIデータサーバ
9からのGUIデータとが送られる。
In the music content distribution system configured as described above, the digital satellite broadcast ground station 1 stores the TV program broadcast material from the TV program material server 6 and the music data material from the music material server 7. The additional audio information from the additional audio information server 8 and the GUI data from the GUI data server 9 are sent.

【0023】テレビ番組素材サーバ6は、通常の音楽放
送番組の素材を提供するサーバである。このテレビ番組
素材サーバ6から送られてくる音楽放送の素材は、動画
および音声である。通常の音楽放送番組では、例えば、
新曲紹介のプロモーション用の動画と音声が放送された
り、最新のヒット曲のカウントダウンが放送されたりす
る。
The TV program material server 6 is a server that provides materials of a normal music broadcast program. The music broadcast materials transmitted from the TV program material server 6 are moving images and audio. In a normal music broadcast program, for example,
Promotional videos and sounds for new song introductions are broadcast, and countdowns of the latest hit songs are broadcast.

【0024】楽曲素材サーバ7は、オーディオチャンネ
ルを使用して、オーディオ番組を提供するサーバであ
る。このオーディオ番組の素材は音声のみである。この
楽曲素材サーバ7は、複数のオーディオチャンネルのオ
ーディオ番組の素材を地上局1へ送る。各オーディオチ
ャンネルの番組放送では、それぞれ、同一の楽曲が所定
の単位時間で繰り返して放送される。各オーディオチャ
ンネルは、それぞれ、独立しており、その利用方法は各
種のものが考えられる。例えば、1つのオーディオチャ
ンネルでは、最新の日本のポップスの中の推薦曲を所定
時間繰り返して放送し、他のオーディオチャンネルで
は、最新のアメリカンポップスの中の推薦曲を所定時間
繰り返して放送し、更に他のオーディオチャンネルで
は、ジャズの中から推薦曲を所定時間繰り返して放送し
てもよい。また、同じアーティストの複数の楽曲をそれ
ぞれのオーディオチャンネルに分けて繰り返して放送し
てもよい。
The music material server 7 is a server that provides an audio program using an audio channel. The material of this audio program is audio only. The music material server 7 sends materials of audio programs of a plurality of audio channels to the ground station 1. In the program broadcasting of each audio channel, the same music is repeatedly broadcast at a predetermined unit time. Each audio channel is independent, and various usages can be considered. For example, in one audio channel, the recommended song in the latest Japanese pop is repeatedly broadcast for a predetermined time, and in the other audio channel, the recommended song in the latest American pop is repeatedly broadcast for a predetermined time. In another audio channel, a recommended song from jazz may be repeatedly broadcast for a predetermined time. Further, a plurality of music pieces of the same artist may be divided into respective audio channels and repeatedly broadcast.

【0025】音声付加情報サーバ8は、音声付加情報を
提供するものである。この音声付加情報は、楽曲素材サ
ーバ7から出力される楽曲の時間情報、具体的には、楽
曲の全演奏時間と楽曲の演奏開始時からの経過時間の情
報である。
The additional audio information server 8 provides additional audio information. The additional audio information is time information of the music output from the music material server 7, specifically, information on the total playing time of the music and the elapsed time from the start of playing the music.

【0026】GUIデータサーバ9は、配信される楽曲
のリストページや各楽曲の情報ページの画面を形成する
ためのデータ、ジャケットの静止画データを形成するた
めのデータ、配信される楽曲の歌詞のデータ、電子プロ
グラムガイド(Electric Program Guide;以下、EPG
と記す。)用の画面を形成するためのデータ等を提供す
るものである。詳細は後で説明するように、本発明が適
用されるシステムでは、画面上のGUIの操作により、
配信される楽曲の歌詞やアーティストのコンサート情報
等を画面に表示させることができる。また、画面上のG
UIの操作により、楽曲の選択、ダウンロードおよびそ
の予約等を行うことができる。GUIデータサーバ9か
らは、そのためのデータが送られる。なお、このGUI
データには例えばMHEG(Multimedia and Hypermedi
a Information Coding Experts Group)方式が用いられ
る。
The GUI data server 9 includes data for forming a screen of a list page of music to be distributed and an information page of each music, data for forming still image data of a jacket, and lyrics of the music to be distributed. Data, Electronic Program Guide (EPG)
It is written. ) Is provided to form data for forming a screen. As will be described later in detail, in a system to which the present invention is applied, by operating a GUI on the screen,
The lyrics of the distributed music, the concert information of the artist, and the like can be displayed on the screen. Also, G on the screen
Through the operation of the UI, music selection, download, reservation thereof, and the like can be performed. The data for that purpose is sent from the GUI data server 9. Note that this GUI
Data includes, for example, MHEG (Multimedia and Hypermedi
a Information Coding Experts Group) method is used.

【0027】地上局1は、前述した、テレビ番組素材サ
ーバ6からの音楽番組放送の素材となるビデオデータお
よびオーディオデータと、楽曲素材サーバ7からのオー
ディオチャンネルの素材となるオーディオデータと、音
声付加情報サーバ8からの音声付加情報と、GUIデー
タサーバ9からのGUIデータとを多重化して送信す
る。このとき、テレビ番組放送のビデオデータは、例え
ばMPEG(Moving Picture Experts Group)2方式に
より圧縮され、テレビ番組放送のオーディオデータは、
MPEG2オーディオ方式により圧縮される。各オーデ
ィオチャンネルのオーディオデータは、2つの異なる方
式、例えばMPEG2オーディオ方式とATRAC(Ad
aptive Transform Acoustic Coding)方式により圧縮さ
れる。また、これらのデータは、多重化の際、キー情報
サーバ10からのキー情報を用いて暗号化される。
The ground station 1 includes the above-described video data and audio data as the material of the music program broadcast from the television program material server 6, the audio data as the material of the audio channel from the music material server 7, and the sound addition. The voice additional information from the information server 8 and the GUI data from the GUI data server 9 are multiplexed and transmitted. At this time, the video data of the television program broadcast is compressed by, for example, the MPEG (Moving Picture Experts Group) 2 system, and the audio data of the television program broadcast is
It is compressed by the MPEG2 audio system. The audio data of each audio channel is stored in two different formats, for example, MPEG2 audio format and ATRAC (Ad
It is compressed by the aptive transform Acoustic Coding method. These data are encrypted using key information from the key information server 10 at the time of multiplexing.

【0028】地上局1からの信号は、衛星2を介して、
例えば各家庭の受信設備3のパラボラアンテナ11で受
信される。この受信信号は、LNB15で所定の周波数
に変換されて、IRD12に供給される。
The signal from the ground station 1 is transmitted via the satellite 2
For example, it is received by the parabolic antenna 11 of the receiving equipment 3 of each home. This received signal is converted to a predetermined frequency by the LNB 15 and supplied to the IRD 12.

【0029】IRD12は、受信信号から所定のチャン
ネルの信号を選択し、ビデオデータおよびオーディオデ
ータの復調を行うものである。また、IRD12は、配
信される楽曲のリストページや、各楽曲の情報ページ
や、EPG用の画面を形成する。IRD12の出力信号
は、テレビジョン受像機14に供給される。
The IRD 12 selects a signal of a predetermined channel from the received signal and demodulates video data and audio data. Further, the IRD 12 forms a list page of music to be distributed, an information page of each music, and an EPG screen. The output signal of the IRD 12 is supplied to the television receiver 14.

【0030】ストレージデバイス13は、ダウンロード
されたオーディオデータを保存するためのものである。
例えば、ストレージデバイス13としては、MD(ミニ
ディスク)レコーダ・プレーヤ、DAT(デジタルオー
ディオテープ)レコーダ・プレーヤ、DVD(デジタル
ビデオディスクまたはデジタルヴァーサタイルディス
ク)レコーダ・プレーヤ等を用いることができる。ま
た、ストレージデバイス13としてパーソナルコンピュ
ータを用い、そのハードディスクやCD−R(書き込み
可能なコンパクトディスク)にオーディオデータを保存
することも可能である。
The storage device 13 is for storing downloaded audio data.
For example, as the storage device 13, an MD (mini disc) recorder player, a DAT (digital audio tape) recorder player, a DVD (digital video disc or digital versatile disc) recorder player, or the like can be used. It is also possible to use a personal computer as the storage device 13 and store the audio data on its hard disk or CD-R (writable compact disk).

【0031】IRD12は、例えば電話回線4を介し
て、課金サーバ5に接続される。IRD12には、各種
情報が記憶されるICカードが挿入されるようになって
いる。楽曲のオーディオデータのダウンロードが行われ
ると、その情報がICカードに記憶される。このICカ
ードの情報は、例えば電話回線4を介して、課金サーバ
5に送られる。課金サーバ5は、このダウンロード情報
に基づいて、適切な課金を行い、視聴者に請求する。こ
のように、適切な課金を行うことにより、ダウンロード
される楽曲の著作権を保護することができる。
The IRD 12 is connected to the accounting server 5 via the telephone line 4, for example. An IC card storing various information is inserted into the IRD 12. When the audio data of the music is downloaded, the information is stored in the IC card. The information of the IC card is sent to the accounting server 5 via the telephone line 4, for example. The billing server 5 performs appropriate billing based on the download information, and bills the viewer. As described above, by performing appropriate charging, the copyright of the downloaded music can be protected.

【0032】このように、本発明が適用されるシステム
では、地上局1は、テレビ番組素材サーバ6からの音楽
番組放送の素材となるビデオデータおよびオーディオデ
ータと、楽曲素材サーバ7からのオーディオチャンネル
の素材となるオーディオデータと、音声付加情報サーバ
8からの音声付加情報データと、GUIデータサーバ9
からのGUIデータとを多重化して送信している。そし
て、各家庭の受信設備3でこの放送を受信すると、音楽
番組が見られる他、送られてきたGUIデータに基づい
てGUI画面が表示される。視聴者は、このGUI画面
を見ながら必要な操作を行うと、各楽曲についての情報
ページを見ることができ、また、各楽曲についての試聴
を行うことができる。視聴者は、更に、GUI画面を見
ながら必要な操作を行うことで、所望の楽曲のオーディ
オデータをダウンロードして、ストレージデバイス13
に記憶させることができる。
As described above, in the system to which the present invention is applied, the ground station 1 includes the video data and the audio data serving as the material of the music program broadcast from the television program material server 6 and the audio channel from the music material server 7. , Audio additional information data from the additional audio information server 8, and a GUI data server 9.
Is multiplexed with the GUI data from the server and transmitted. Then, when this broadcast is received by the receiving facility 3 of each home, a music program is viewed, and a GUI screen is displayed based on the transmitted GUI data. When the viewer performs a necessary operation while viewing the GUI screen, he or she can see an information page for each song and can listen to a preview of each song. The viewer further downloads the audio data of the desired music by performing necessary operations while viewing the GUI screen, and
Can be stored.

【0033】図1において、地上局1が、本発明におけ
るデータ生成手段、送信手段とを備えたデータ送信装置
に対応する。また、図1において、受信設備3が、本発
明における受信手段および提示処理手段を備えたデータ
受信装置に対応し、特にIRD12が提示処理手段に対
応する。
In FIG. 1, a ground station 1 corresponds to a data transmitting apparatus provided with data generating means and transmitting means in the present invention. In FIG. 1, the receiving equipment 3 corresponds to a data receiving apparatus provided with the receiving means and the presenting processing means in the present invention, and particularly, the IRD 12 corresponds to the presenting processing means.

【0034】次に、受信設備3における視聴者の操作に
ついて、更に詳細に説明する。
Next, the operation of the viewer in the receiving facility 3 will be described in more detail.

【0035】各家庭の受信設備3で、前述の音楽番組放
送を受信すると、テレビジョン受像機14に、図2に示
すようなGUI画面が表示される。この画面の左上部の
テレビ番組表示エリア21Aには、テレビ番組素材サー
バ6から提供された音楽番組に基づく動画像が表示され
る。画面の右上部には、オーディオチャンネルで放送さ
れている各チャンネルの楽曲のリスト21Bが表示され
る。また、画面の左下にはテキスト表示エリア21Cと
ジャケット表示エリア21Dが設定される。更に、画面
の右側には、歌詞表示ボタン22、プロフィール表示ボ
タン23、情報表示ボタン24、予約録音ボタン25、
予約済一覧表示ボタン26、録音履歴表示ボタン27お
よびダウンロードボタン28が表示される。
When the above-mentioned music program broadcast is received by the receiving equipment 3 of each home, a GUI screen as shown in FIG. 2 is displayed on the television receiver 14. In the television program display area 21A at the upper left of this screen, a moving image based on the music program provided from the television program material server 6 is displayed. In the upper right part of the screen, a list 21B of songs of each channel being broadcast on the audio channel is displayed. Further, a text display area 21C and a jacket display area 21D are set at the lower left of the screen. Further, on the right side of the screen, a lyrics display button 22, a profile display button 23, an information display button 24, a reservation recording button 25,
A reserved list display button 26, a recording history display button 27, and a download button 28 are displayed.

【0036】視聴者は、リスト21Bに表示されている
楽曲名を見ながら、興味のある楽曲を探していく。そし
て、興味のある楽曲を見つけたら、リモートコマンダの
矢印キーを操作してその楽曲にカーソルを合わせた後、
IRD12に付属するリモートコマンダのエンターキー
を押す。これによって、カーソルを合わせた楽曲を試聴
することができる。すなわち、各オーディオチャンネル
では、所定の単位時間中、同一の楽曲が繰り返し放送さ
れているので、テレビ番組表示エリア21Aの画面はそ
のままで、その楽曲のオーディオチャンネルに切り換え
られ、その楽曲を聞くことができる。このとき、ジャケ
ット表示エリア21Dには、その楽曲のMDジャケット
の静止画像が表示される。
The viewer searches for a song of interest while looking at the song name displayed in the list 21B. When you find a song you are interested in, use the arrow keys on the remote commander to move the cursor to that song,
Press the enter key of the remote commander attached to IRD12. As a result, it is possible to listen to the music piece with the cursor. That is, in each audio channel, the same music is repeatedly broadcast during a predetermined unit time, so that the screen of the television program display area 21A is kept as it is and the audio channel of the music is switched to listen to the music. it can. At this time, a still image of the MD jacket of the music is displayed in the jacket display area 21D.

【0037】この状態で歌詞表示ボタン22にカーソル
を合わせ、エンターキーを押す(以下、ボタンにカーソ
ルを合わせ、エンターキーを押す操作をボタンを押すと
いう)と、テキスト表示エリア21Cに、楽曲の歌詞が
オーディオデータと同期したタイミングで表示される。
同様に、プロフィール表示ボタン23あるいは情報表示
ボタン24を押すと、楽曲に対応するアーティストのプ
ロフィールあるいはコンサート情報等がテキスト表示エ
リア21Cに表示される。このように、視聴者は、現在
どのような楽曲が配信されているのかを知ることがで
き、各楽曲についての詳細な情報を知ることができる。
In this state, when the cursor is moved to the lyrics display button 22 and the enter key is pressed (hereinafter, the operation of moving the cursor to the button and pressing the enter key is called the button), the lyrics of the music are displayed in the text display area 21C. Is displayed at the timing synchronized with the audio data.
Similarly, when the profile display button 23 or the information display button 24 is pressed, the artist profile or concert information corresponding to the music is displayed in the text display area 21C. Thus, the viewer can know what kind of music is currently being distributed, and can know detailed information about each music.

【0038】視聴者は、試聴した楽曲を購入したい場合
には、ダウンロードボタン28を押す。ダウンロードボ
タン28が押されると、選択された楽曲のオーディオデ
ータがダウンロードされ、ストレージデバイス13に記
憶される。楽曲のオーディオデータと共に、その歌詞デ
ータ、アーティストのプロフィール情報、ジャケットの
静止画データ等をダウンロードすることもできる。楽曲
がダウンロードされる毎に、その情報がIRD12内の
ICカードに記憶される。ICカードに記憶された情報
は、例えば1カ月に一度ずつ課金サーバ5に吸い上げら
れる。これによって、ダウンロードされる楽曲の著作権
を保護することができる。
The viewer presses the download button 28 when he / she wants to purchase the tune listened to. When the download button 28 is pressed, the audio data of the selected music is downloaded and stored in the storage device 13. Along with the audio data of the music, lyrics data, artist profile information, jacket still image data, and the like can be downloaded. Each time a song is downloaded, that information is stored on an IC card in the IRD 12. The information stored in the IC card is downloaded to the charging server 5, for example, once a month. Thereby, the copyright of the downloaded music can be protected.

【0039】また、視聴者は、予めダウンロードの予約
を行いたい場合には、予約録音ボタン25を押す。この
ボタン25を押すと、GUI画面が切り換わり、予約が
可能な楽曲のリストが画面全体に表示される。このリス
トは、1時間単位、1週間単位、ジャンル単位等で検索
した楽曲を表示することが可能である。視聴者は、この
リストの中からダウンロードの予約を行いたい楽曲を選
択すると、その情報がIRD12内に登録される。ま
た、既にダウンロードの予約を行った楽曲を確認したい
場合には、予約済一覧表示ボタン26を押すことによ
り、予約済の楽曲のリストを画面全体に表示させること
ができる。このようにして予約された楽曲は、予約時刻
になるとIRD12によりダウンロードされ、ストレー
ジデバイス13に記憶される。
When the viewer wants to make a reservation for download in advance, he presses the reservation recording button 25. When this button 25 is pressed, the GUI screen is switched, and a list of songs that can be reserved is displayed on the entire screen. This list can display music searched in units of one hour, one week, or genre. When the viewer selects a song to be reserved for download from this list, the information is registered in the IRD 12. When the user wants to check the music for which download reservation has already been made, the user can press the reserved list display button 26 to display a list of reserved music on the entire screen. The music thus reserved is downloaded by the IRD 12 at the reserved time and stored in the storage device 13.

【0040】視聴者は、ダウンロードを行った楽曲につ
いて確認したい場合には、録音履歴ボタン27を押すこ
とにより、既にダウンロードを行った楽曲のリストを画
面全体に表示させることができる。
When the viewer wants to confirm the downloaded music, the recording history button 27 can be pressed to display a list of already downloaded music on the entire screen.

【0041】このように、本発明が適用されるシステム
における受信設備3では、テレビジョン受像機14のG
UI画面上に楽曲のリストが表示される。そして、視聴
者は、このGUI画面上の表示に従って楽曲を選択する
と、その楽曲を試聴することができ、更に、その楽曲の
歌詞やアーティストのプロフィール等を知ることができ
る。視聴者は、更に、GUI画面を用いて、楽曲のダウ
ンロードとその予約、ダウンロードの履歴や予約済楽曲
リストの表示等を行うこともできる。
As described above, in the receiving equipment 3 in the system to which the present invention is applied, the G of the television receiver 14 is
A list of songs is displayed on the UI screen. When the viewer selects a song in accordance with the display on the GUI screen, the viewer can listen to the song on a trial basis, and can also know the lyrics of the song, the artist profile, and the like. The viewer can further use the GUI screen to download music and make a reservation for the music, display a download history, a list of reserved music, and the like.

【0042】以上説明したように、本発明が適用される
音楽コンテンツ配信システムでは、音楽放送番組が配信
されると共に、複数のオーディオチャンネルを使用して
楽曲のオーディオデータが配信される。そして、配信さ
れている楽曲のリスト等を使用して所望の楽曲を探し、
そのオーディオデータをストレージデバイス13に簡単
に保存することができる。以下、このようなシステムに
ついて、更に詳述する。
As described above, in the music content distribution system to which the present invention is applied, a music broadcast program is distributed, and audio data of music is distributed using a plurality of audio channels. Then, using a list of distributed music, etc., search for the desired music,
The audio data can be easily stored in the storage device 13. Hereinafter, such a system will be described in more detail.

【0043】図3は本発明が適用される音楽コンテンツ
配信システムにおける地上局1の構成の一例を示したも
のである。
FIG. 3 shows an example of the configuration of the ground station 1 in the music content distribution system to which the present invention is applied.

【0044】この地上局1は、テレビ番組素材サーバ6
からの素材データを登録するためのテレビ番組素材登録
システム31と、楽曲素材サーバ7からのオーディオデ
ータを登録するための楽曲素材登録システム32と、音
声付加情報サーバ8からの音声付加情報を登録するため
の音声付加情報登録システム33と、GUIデータサー
バ9からのGUIデータを登録するためのGUI用素材
登録システム34とを備えている。
The ground station 1 has a television program material server 6
A TV program material registration system 31 for registering material data from the PC, a music material registration system 32 for registering audio data from the music material server 7, and audio additional information from the audio additional information server 8 are registered. And a GUI material registration system 34 for registering GUI data from the GUI data server 9.

【0045】地上局1は、更に、テレビ番組素材登録シ
ステム31からの素材データを保持するAV(オーディ
オ・ビデオ)サーバ35と、このAVサーバ35によっ
て保持された素材データを、圧縮し、パケット化して送
出するテレビ番組送出システム39とを備えている。
The ground station 1 further stores an AV (audio / video) server 35 holding the material data from the TV program material registration system 31, and compresses and packetizes the material data held by the AV server 35. And a television program transmission system 39 for transmitting.

【0046】地上局1は、更に、楽曲素材登録システム
32からのオーディオデータをMPEG2オーディオ方
式でエンコードするMPEG2オーディオエンコーダ3
6Aと、このMPEG2オーディオエンコーダ36Aに
よってエンコーダされて得られるMPEGオーディオデ
ータを保持するMPEGオーディオサーバ40Aと、こ
のMPEGオーディオサーバ40Aによって保持された
MPEGオーディオデータを、パケット化して送出する
MPEGオーディオ送出システム43Aとを備えてい
る。
The ground station 1 further includes an MPEG2 audio encoder 3 for encoding the audio data from the music material registration system 32 in the MPEG2 audio system.
6A, an MPEG audio server 40A that holds the MPEG audio data obtained by encoding by the MPEG2 audio encoder 36A, and an MPEG audio transmission system 43A that packetizes and transmits the MPEG audio data held by the MPEG audio server 40A. And

【0047】地上局1は、更に、楽曲素材登録システム
32からのオーディオデータをATRAC方式でエンコ
ードするATRACエンコーダ36Bと、このATRA
Cエンコーダ36Bによってエンコーダされて得られる
ATRACデータを保持するATRACオーディオサー
バ40Bと、このATRACオーディオサーバ40Bに
よって保持されたATRACデータを、パケット化して
送出するATRACオーディオ送出システム43Bとを
備えている。
The ground station 1 further includes an ATRAC encoder 36B for encoding the audio data from the music material registration system 32 by the ATRAC method, and an ATRA encoder 36B.
An ATRAC audio server 40B that holds ATRAC data obtained by being encoded by the C encoder 36B, and an ATRAC audio transmission system 43B that packetizes and transmits the ATRAC data held by the ATRAC audio server 40B.

【0048】地上局1は、更に、音声付加情報登録シス
テム33からの音声付加情報を保持する音声付加情報デ
ータベース37と、この音声付加情報データベース37
によって保持された音声付加情報を、パケット化して送
出する音声付加情報送出システム41とを備えている。
The ground station 1 further includes a voice additional information database 37 holding voice additional information from the voice additional information registration system 33, and a voice additional information database 37.
And a voice additional information transmission system 41 for packetizing and transmitting the voice additional information held by the device.

【0049】地上局1は、更に、GUI用素材登録シス
テム34からのGUIデータを保持するGUI素材デー
タベース38と、このGUI素材データベース38によ
って保持されたGUIデータを、処理し、パケット化し
て送出するGUIオーサリングシステム42とを備えて
いる。
The ground station 1 further processes the GUI material database 38 holding the GUI data from the GUI material registration system 34, and processes the GUI data held by the GUI material database 38, packetizes the data, and sends out the packets. And a GUI authoring system 42.

【0050】地上局1は、更に、各システム39,43
A,43B,41,42からの各データおよび情報を、
時間軸多重化(時分割多重化)すると共に、キー情報サ
ーバ10(図1)からのキー情報を用いて暗号化するマ
ルチプレクサ44と、このマルチプレクサ44の出力に
対して所定の処理を施した後、図示しないアンテナから
衛星2に向けて送信する電波送出システム45とを備え
ている。
The ground station 1 further includes the respective systems 39 and 43
A, 43B, each data and information from 41, 42,
A multiplexer 44 for performing time axis multiplexing (time division multiplexing) and encrypting using key information from the key information server 10 (FIG. 1), and after performing predetermined processing on the output of the multiplexer 44 , A radio wave transmission system 45 for transmitting a signal from an antenna (not shown) to the satellite 2.

【0051】このように構成された地上局1では、テレ
ビ番組素材登録システム31からの素材データはAVサ
ーバ35に登録される。この素材データはビデオデータ
とオーディオデータである。AVサーバ35に登録され
た素材データは、テレビ番組送出システム39に送ら
れ、ここでビデオデータは例えばMPEG2方式で圧縮
され、オーディオデータは例えばMPEG2オーディオ
方式により圧縮され、それぞれパケット化される。テレ
ビ番組送出システム39の出力は、マルチプレクサ44
に送られる。
In the ground station 1 thus configured, the material data from the TV program material registration system 31 is registered in the AV server 35. This material data is video data and audio data. The material data registered in the AV server 35 is sent to the television program transmission system 39, where the video data is compressed by, for example, the MPEG2 system, and the audio data is compressed by, for example, the MPEG2 audio system, and each is packetized. The output of the television program transmission system 39 is
Sent to

【0052】また、楽曲素材登録システム32からのオ
ーディオデータは、MPEG2オーディオエンコーダ3
6AおよびATRACエンコーダ36Bに供給され、各
々エンコードされた後、MPEGオーディオサーバ40
AおよびATRACオーディオサーバ40Bに登録され
る。MPEGオーディオサーバ40Aに登録されたMP
EGオーディオデータは、MPEGオーディオ送出シス
テム43Aに送られ、ここでパケット化された後、マル
チプレクサ44に送られる。ATRACオーディオサー
バ40Bに登録されたATRACデータは、ATRAC
オーディオ送出システム43Bに4倍速ATRACデー
タとして送られ、ここでパケット化された後、マルチプ
レクサ44に送られる。
The audio data from the music material registration system 32 is an MPEG2 audio encoder 3
6A and the ATRAC encoder 36B, after being encoded respectively, the MPEG audio server 40
A and registered in ATRAC audio server 40B. MP registered in the MPEG audio server 40A
The EG audio data is sent to the MPEG audio transmission system 43A, where it is packetized and sent to the multiplexer 44. ATRAC data registered in the ATRAC audio server 40B is ATRAC data.
The data is sent to the audio transmission system 43B as quadruple-speed ATRAC data, packetized here, and sent to the multiplexer 44.

【0053】更に、音声付加情報登録システム33から
の音声付加情報は、音声付加情報データベース37に登
録される。音声付加情報データベース37に登録された
音声付加情報は、音声付加情報送出システム41に送ら
れ、ここでパケット化された後、マルチプレクサ44に
送られる。
Further, the additional voice information from the additional voice information registration system 33 is registered in the additional voice information database 37. The additional audio information registered in the additional audio information database 37 is sent to the additional audio information transmission system 41, where it is packetized and then sent to the multiplexer 44.

【0054】また、GUI用素材登録システム34から
のGUIデータは、GUI素材データベース38に登録
される。GUI素材データベース38に登録されたGU
Iデータは、GUIオーサリングシステム42に送ら
れ、ここでGUI用の画面のデータが処理され、パケッ
ト化された後、マルチプレクサ44に送られる。ここ
で、GUIデータには、ジャケットの静止画情報、楽曲
の歌詞情報、アーティストのコンサート情報等が含まれ
る。ここで、静止画情報は、例えばJPEG(JointPhot
ographic Experts Group)方式で圧縮された640×4
80ピクセルの画像データとされ、歌詞情報は例えば8
00文字以内のテキストデータとされて、それぞれパケ
ット化される。
The GUI data from the GUI material registration system 34 is registered in the GUI material database 38. GU registered in the GUI material database 38
The I data is sent to the GUI authoring system 42, where the GUI screen data is processed and packetized, and then sent to the multiplexer 44. Here, the GUI data includes still image information of a jacket, lyric information of music, concert information of an artist, and the like. Here, the still image information is, for example, JPEG (JointPhot
640x4 compressed by the (ographic Experts Group) method
The image data is 80 pixel image data.
The data is packetized as text data of up to 00 characters.

【0055】マルチプレクサ44では、テレビ番組送出
システム39からのビデオパケットおよびオーディオパ
ケットと、MPEGオーディオ送出システム43Aから
のオーディオパケットと、ATRACオーディオ送出シ
ステム43Bからの4倍速オーディオパケットと、音声
付加情報送出システム41からの音声付加情報パケット
と、GUIオーサリングシステム42からのGUIデー
タパケットとが時間軸多重化されると共に、キー情報サ
ーバ10(図1)からのキー情報を用いて暗号化され
る。
The multiplexer 44 includes a video packet and an audio packet from the television program transmission system 39, an audio packet from the MPEG audio transmission system 43A, a quadruple-speed audio packet from the ATRAC audio transmission system 43B, and an audio additional information transmission system. The voice additional information packet from 41 and the GUI data packet from the GUI authoring system 42 are time-division multiplexed and encrypted using key information from the key information server 10 (FIG. 1).

【0056】マルチプレクサ44の出力は、電波送出シ
ステム45に送られ、ここで誤り訂正符号の付加、変調
および周波数変換等の処理を施された後、図示しないア
ンテナから衛星2に向けて送信される。
The output of the multiplexer 44 is sent to a radio wave transmission system 45, where it is subjected to processing such as addition of an error correction code, modulation and frequency conversion, and then transmitted from an antenna (not shown) to the satellite 2. .

【0057】図4は、地上局1から送信されるデータの
一例を示したものである。なお、この図に示す各データ
は、実際には時間軸多重化されている。図4に示したよ
うに、時刻t1 から時刻t2 の間が1つのイベントとさ
れ、時刻t2から次のイベントとされる。イベントと
は、楽曲のラインナップを変える単位であって、30分
または1時間を単位とするのが普通である。例えば、最
新ヒット曲のトップ20の20位から11位を先のイベ
ントで放送し、10位から1位を後のイベントで放送す
ること等が考えられる。
FIG. 4 shows an example of data transmitted from the ground station 1. It should be noted that each data shown in this figure is actually time-division multiplexed. As shown in FIG. 4, one event is between time t1 and time t2, and the next event is from time t2. An event is a unit for changing the lineup of music, and is usually in units of 30 minutes or 1 hour. For example, it is conceivable to broadcast the 20th to 11th of the top 20 of the latest hit songs in an earlier event, and broadcast the 10th to 1st in a later event.

【0058】図4に示したように、時刻t1 から時刻t
2 のイベントでは、通常の動画の番組放送で、所定の内
容A1を有する音楽番組が放送されている。また、時刻
t2から始まるイベントでは、所定の内容A2を有する
音楽番組が放送されている。この通常の音楽番組で放送
されているのは、動画と音声である。
As shown in FIG. 4, from time t1 to time t
In the event No. 2, a music program having a predetermined content A1 is broadcast in a normal video program broadcast. In an event starting from time t2, a music program having predetermined content A2 is being broadcast. What is broadcast on this normal music program is moving images and audio.

【0059】オーディオチャンネルは、例えば、チャン
ルCH1からCH10の10チャンネル分用意される。
このとき、各オーディオチャンネルCH1、CH2、C
H3、・・・CH10では、1つのイベントの間、同一
の楽曲が繰り返して送信される。すなわち、時刻t1 か
ら時刻t2 のイベントでは、オーディオチャンネルCH
1では、楽曲B1が繰り返して送信され、オーディオチ
ャンネルCH2では楽曲C1が繰り返して送信され、以
下、同様にオーディオチャンネルCH10では楽曲K1
が繰り返して送信される。時刻t2から始まるイベント
では、オーディオチャンネルCH1では、楽曲B2が繰
り返して送信され、オーディオチャンネルCH2では楽
曲C2が繰り返して送信され、以下、同様にオーディオ
チャンネルCH10では楽曲K2が繰り返して送信され
る。これは、MPEGオーディオチャンネルおよび4倍
速ATRACオーディオチャンネルに共通である。
For example, ten audio channels CH1 to CH10 are prepared.
At this time, each audio channel CH1, CH2, C
In H3,..., CH10, the same music is repeatedly transmitted during one event. That is, in the event from time t1 to time t2, the audio channel CH
1, the music B1 is repeatedly transmitted, the music C1 is repeatedly transmitted on the audio channel CH2, and thereafter, the music K1 is similarly transmitted on the audio channel CH10.
Is repeatedly transmitted. In the event starting from the time t2, the music B2 is repeatedly transmitted on the audio channel CH1, the music C2 is repeatedly transmitted on the audio channel CH2, and thereafter, the music K2 is repeatedly transmitted on the audio channel CH10. This is common to the MPEG audio channel and the 4 × ATRAC audio channel.

【0060】つまり、図4において、MPEGオーディ
オチャンネルと4倍速ATRACオーディオチャンネル
のチャンネル番号である( )内の数字が同じものは同
じ楽曲に関するものである。また、音声付加情報のチャ
ンネル番号である( )内の数字は、同じチャンネル番
号を有するオーディオデータに付加されている音声付加
情報である。更に、GUIデータとして伝送される静止
画データやテキストデータも各チャンネル毎に形成され
る。
That is, in FIG. 4, the same numbers in parentheses, which are the channel numbers of the MPEG audio channel and the 4 × -speed ATRAC audio channel, relate to the same music. The number in parentheses, which is the channel number of the additional audio information, is the additional audio information added to the audio data having the same channel number. Still image data and text data transmitted as GUI data are also formed for each channel.

【0061】図5は、図4に示したような各種のデータ
の伝送の方法と再構築の方法を示したものである。図5
(a)〜(d)に示したように、各種のデータは、MP
EG2のトランスポートパケットによって時分割多重化
されて送信される。各トランスポートパケットは、ヘッ
ダを有し、このヘッダ内に、パケットの種類を表す情報
が記述される。IRD12内では、各パケットのヘッダ
内のパケットの種類を表す情報を用いて、図5(e)〜
(h)に示したように、各データを再構築する。
FIG. 5 shows a method of transmitting and reconstructing various data as shown in FIG. FIG.
As shown in (a) to (d), various data are MP
It is time-division multiplexed and transmitted by the transport packet of EG2. Each transport packet has a header, in which information indicating the type of the packet is described. In the IRD 12, the information indicating the type of the packet in the header of each packet is used, and FIG.
Each data is reconstructed as shown in (h).

【0062】次に、各家庭の受信設備3について説明す
る。図1に示したように、各家庭の受信設備としてはパ
ラボラアンテナ11と、IRD12と、ストレージデバ
イス13と、テレビジョン受像機14とが用意される。
Next, the receiving equipment 3 in each home will be described. As shown in FIG. 1, a parabolic antenna 11, an IRD 12, a storage device 13, and a television receiver 14 are prepared as receiving facilities in each home.

【0063】ここでは、IRD12は、図6(a)に示
したように、アナログオーディオ出力端子Aoutと、
光ケーブルでオーディオデータを送るIEC958等の
デジタルオーディオ出力端子Doutと、IEEE13
94等のデジタルインタフェース端子Difとを備えて
いるものとする。従って、ストレージデバイス13とし
ては、図6(b)に示したように、アナログオーディオ
入力端子Ainしか備えていないもの、図6(c)に示
したように、IEC958等のPCMオーディオ入力端
子Dinを備えているもの、図6(d)に示したよう
に、IEEE1394等の双方向デジタルインタフェー
ス端子Difを備えているものを接続することができ
る。
Here, the IRD 12 is connected to an analog audio output terminal Aout, as shown in FIG.
A digital audio output terminal Dout such as IEC958 for transmitting audio data via an optical cable;
94 and other digital interface terminals Dif. Therefore, the storage device 13 has only the analog audio input terminal Ain as shown in FIG. 6B, and the PCM audio input terminal Din such as IEC958 as shown in FIG. As shown in FIG. 6 (d), a device having a bidirectional digital interface terminal Dif such as IEEE1394 can be connected.

【0064】図6(b)に示したように、ストレージデ
バイスとしてアナログオーディオ入力端子Ainしか備
えていないストレージデバイス13Aが用いられた場合
には、IRD12のアナログ出力端子Aoutと、スト
レージデバイス13Aのアナログ入力端子Ainとがア
ナログケーブル16Aにより接続される。
As shown in FIG. 6B, when a storage device 13A having only an analog audio input terminal Ain is used as a storage device, an analog output terminal Aout of the IRD 12 and an analog output terminal of the storage device 13A are used. The input terminal Ain is connected with the analog cable 16A.

【0065】また、図6(c)に示したように、ストレ
ージデバイスとしてIEC958等のPCMオーディオ
入力端子Dinを備えているストレージデバイス13B
が用いられた場合には、IRD12のデジタル出力端子
Doutとストレージデバイス13Bのデジタル入力端
子Dinとの間が例えばIEC958の光ファイバケー
ブル16Bで接続される。
As shown in FIG. 6C, a storage device 13B having a PCM audio input terminal Din such as IEC958 as a storage device.
Is used, the digital output terminal Dout of the IRD 12 and the digital input terminal Din of the storage device 13B are connected by, for example, an IEC958 optical fiber cable 16B.

【0066】また、図6(d)に示したように、ストレ
ージデバイスとしてIEEE1394等の双方向デジタ
ルインタフェース端子Difを備えているストレージデ
バイス13Cが用いられた場合には、IRD12のデジ
タルインタフェース端子Difとストレージデバイス1
3Cのデジタルインタフェース端子Difとの間が、I
EEE1394のデジタルインタフェースケーブル(以
下、IEEE1394バスという。)16Cで接続され
る。
As shown in FIG. 6D, when a storage device 13C having a bidirectional digital interface terminal Dif such as IEEE1394 is used as a storage device, the digital interface terminal Dif of the IRD 12 is connected to the storage device 13C. Storage device 1
Between the 3C digital interface terminal Dif
They are connected by an IEEE 1394 digital interface cable (hereinafter, referred to as an IEEE 1394 bus) 16C.

【0067】図6(b)に示したように、ストレージデ
バイスとしてデジタル入力端子を有していないものを用
いた場合には、ダウンロードされたMPEGオーディオ
データは、IRD12内でMPEG2のデコード処理を
施され、更にデジタル−アナログ変換されて、アナログ
のオーディオ出力端子Aoutから出力される。そし
て、IRD12からアナログケーブル16Aを介してス
トレージデバイス13Aに送られる。なお、この場合、
IRD12とストレージデバイス13Aとの間に、赤外
線等の無線通信、あるいはケーブルによる有線通信を用
いて制御信号のやり取りを行い、接続関係の確認やダウ
ンロード動作の確認を行うように構成することも可能で
ある。
As shown in FIG. 6B, when a storage device having no digital input terminal is used, the downloaded MPEG audio data is subjected to MPEG2 decoding processing in the IRD 12. Then, the digital-to-analog conversion is performed, and the resultant signal is output from an analog audio output terminal Aout. Then, the data is sent from the IRD 12 to the storage device 13A via the analog cable 16A. In this case,
A control signal may be exchanged between the IRD 12 and the storage device 13A using wireless communication such as infrared rays or wired communication using a cable to confirm a connection relationship or a download operation. is there.

【0068】図6(c)に示したように、ストレージデ
バイスとしてPCMオーディオ入力端子Dinを備えて
いるストレージデバイス13Bが用いられた場合には、
ダウンロードされたMPEGオーディオデータは、IR
D12内でMPEG2のデコード処理が施され、IRD
12からPCMオーディオデータで出力される。そし
て、IRD12から、例えばIEC958の光ケーブル
ケーブル16Bを介してストレージデバイス13Bに送
られる。この場合も、IRD12とストレージデバイス
13Aとの間に、赤外線等の無線通信、あるいはケーブ
ルによる有線通信を用いて制御信号のやり取りを行い、
接続関係の確認やダウンロード動作の確認を行うように
構成することも可能である。
As shown in FIG. 6C, when a storage device 13B having a PCM audio input terminal Din is used as a storage device,
The downloaded MPEG audio data is IR
MPEG2 decoding processing is performed in D12, and IRD
12 is output as PCM audio data. Then, the data is sent from the IRD 12 to the storage device 13B via, for example, an IEC958 optical cable 16B. Also in this case, control signals are exchanged between the IRD 12 and the storage device 13A using wireless communication such as infrared rays or wired communication using a cable.
It is also possible to configure so as to check the connection relationship and the download operation.

【0069】図6(d)に示した場合の具体例として、
IEEE1394等の双方向デジタルインタフェース端
子Difを備えているMDレコーダ・プレーヤ(以下、
IEEE1394MDと記す。)がストレージデバイス
13Cとして用いられた場合には、ダウンロードされた
4倍速ATRACデータは、そのままIRD12から、
IEEE1394バス16Cを介してストレージデバイ
ス13Cに送られる。また、ストレージデバイス13C
としてのIEEE1394MDは、IRD12で選択さ
れた楽曲のオーディオデータと共に、そのジャケットデ
ータや歌詞データ等のテキストデータを蓄積することが
できる。なお、以下の説明では、ストレージデバイス1
3CとしてのIEEE1394MDにも、符号13Cを
付す。
As a specific example in the case shown in FIG.
An MD recorder / player (hereinafter, referred to as an IEEE 1394 or the like) having a bidirectional digital interface terminal Dif.
It is described as IEEE1394MD. ) Is used as the storage device 13C, the downloaded 4 × speed ATRAC data is
The data is sent to the storage device 13C via the IEEE 1394 bus 16C. Also, the storage device 13C
The IEEE 1394 MD can store text data such as jacket data and lyrics data together with audio data of the music selected by the IRD 12. In the following description, the storage device 1
IEEE1394MD as 3C is also denoted by reference numeral 13C.

【0070】このように、ストレージデバイス13とし
て使用される機器としては、アナログ入力のもの、PC
Mオーディオデータを入力するもの、ATRACのデー
タを入力するのものの3系統のものがあり得る。
As described above, devices used as the storage device 13 include analog input devices and PCs.
There are three systems, one for inputting M audio data and one for inputting ATRAC data.

【0071】図7は、IRD12の構成の一例を示した
ものである。このIRD12は、外部端子あるいはイン
タフェースとして、入力端子T1、アナログビデオ出力
端子T2、アナログオーディオ出力端子T3,T4、光
デジタル出力インタフェース59、IEEE1394イ
ンタフェース60、マンマシンインタフェース61、I
Cカードスロット62およびモデム63を備えている。
また、IRD12は、制御用CPU(中央処理装置)5
8を備えている。
FIG. 7 shows an example of the configuration of the IRD 12. The IRD 12 has an input terminal T1, an analog video output terminal T2, an analog audio output terminal T3, T4, an optical digital output interface 59, an IEEE 1394 interface 60, a man-machine interface 61,
A C card slot 62 and a modem 63 are provided.
Further, the IRD 12 includes a control CPU (central processing unit) 5
8 is provided.

【0072】入力端子T1は、LNB25で所定の周波
数に変換された受信信号が入力される端子である。アナ
ログビデオ出力端子T2は、アナログビデオ信号をテレ
ビジョン受像機14に供給する端子である。アナログオ
ーディオ出力端子T3は、アナログオーディオ信号をテ
レビジョン受像機14に供給する端子である。アナログ
オーディオ出力端子T4は、アナログオーディオ信号を
アナログ入力のストレージデバイスに供給する端子であ
る。光デジタル出力インタフェース59は、IEC95
8に準拠したものであって、PCMオーディオデータを
光ファイバケーブル16Bに送出する。IEEE139
4インタフェース60は、ビデオデータ、オーディオデ
ータおよび各種コマンド等をIEEE1394バス16
Cへ送出する。マンマシンインタフェース61は、ユー
ザによるリモートコマンダ(以下、リモコンという)6
4からの入力を制御用CPU58に送る。ICカードス
ロット62にはICカード65が挿入される。モデム6
3は電話回線4を介して課金サーバ5と接続される。
The input terminal T1 is a terminal to which a received signal converted into a predetermined frequency by the LNB 25 is input. The analog video output terminal T2 is a terminal that supplies an analog video signal to the television receiver 14. The analog audio output terminal T3 is a terminal that supplies an analog audio signal to the television receiver 14. The analog audio output terminal T4 is a terminal for supplying an analog audio signal to an analog input storage device. The optical digital output interface 59 is IEC95
8, which transmits PCM audio data to the optical fiber cable 16B. IEEE139
4 interface 60 transmits video data, audio data, various commands, and the like to the IEEE 1394 bus 16.
Send to C The man-machine interface 61 is a remote commander (hereinafter, referred to as a remote controller) 6 by a user.
4 is sent to the control CPU 58. An IC card 65 is inserted into the IC card slot 62. Modem 6
3 is connected to a billing server 5 via a telephone line 4.

【0073】IRD12は、更に、入力端子T1に接続
されたチューナー51と、このチューナー51の後段に
設けられたデスクランブラ52と、このデスクランブラ
52の後段に設けられたトランスポートIC(集積回
路)53と、このトランスポートIC53の後段に設け
られたMPEGオーディオデコーダ54およびMPEG
ビデオデコーダ55と、MPEGオーディオデコーダ5
4の後段に設けられたデジタル−アナログコンバータ5
6と、このデジタル−アナログコンバータ56の後段に
設けられた1入力2出力のスイッチSW1と、MPEG
ビデオデコーダ55の後段に設けられたNTSC変換ブ
ロック57とを備えている。
The IRD 12 further includes a tuner 51 connected to the input terminal T 1, a descrambler 52 provided after the tuner 51, and a transport IC (integrated circuit) provided after the descrambler 52. 53, an MPEG audio decoder 54 and an MPEG
Video decoder 55 and MPEG audio decoder 5
4, a digital-to-analog converter 5 provided at the subsequent stage
6, a one-input / two-output switch SW1 provided at the subsequent stage of the digital-analog converter 56,
And an NTSC conversion block 57 provided at the subsequent stage of the video decoder 55.

【0074】NTSC変換ブロック57の出力端は、ア
ナログビデオ出力端子T2に接続されている。スイッチ
SW1の各出力端は、それぞれ、アナログオーディオ出
力端子T3,T4に接続されている。また、MPEGオ
ーディオデコーダ54は、光デジタル出力インタフェー
ス59に接続されている。また、トランスポートIC5
3は、IEEE1394インタフェース60に接続され
ている。
The output terminal of the NTSC conversion block 57 is connected to the analog video output terminal T2. Each output terminal of the switch SW1 is connected to an analog audio output terminal T3, T4, respectively. The MPEG audio decoder 54 is connected to an optical digital output interface 59. In addition, transport IC5
3 is connected to the IEEE 1394 interface 60.

【0075】チューナー51は、制御用CPU58から
の設定信号に基づいて、端子T1から供給される受信信
号の中から所定の受信周波数の信号を選択し、更に復調
と誤り訂正処理を施してMPEGトランスポートストリ
ームを出力する。デスクランブラ52は、チューナー5
1からMPEGトランスポートストリームを受け、IC
カード65に記憶されているデスクランブル用の鍵デー
タをICカードスロット62と制御用CPU58を介し
て受け取り、この鍵データを用いてデスクランブルを行
う。トランスポートIC53は、ユーザがリモコン64
から入力した指令をマンマシンインタフェース61と制
御用CPU58とを介して受け取り、トランスポートス
トリームの中から所望のテレビ番組のMPEGビデオデ
ータとMPEGオーディオデータを抽出する。MPEG
ビデオデコーダ55は、トランスポートIC53から供
給されるMPEGビデオデータをデータ圧縮前のビデオ
データに変換する。MPEGオーディオデコーダ54
は、トランスポートIC53から供給されるMPEGオ
ーディオデータをデータ圧縮前のオーディオデータ(P
CMオーディオデータ)に変換する。デジタル−アナロ
グコンバータ56は、MPEGオーディオデコーダ54
Aから供給されるオーディオデータをアナログオーディ
オ信号に変換する。スイッチSW1は、デジタル−アナ
ログコンバータ56から供給されるアナログオーディオ
信号をアナログオーディオ出力端子T3,T4に選択的
に供給する。
The tuner 51 selects a signal of a predetermined reception frequency from the reception signals supplied from the terminal T1 based on the setting signal from the control CPU 58, further performs demodulation and error correction processing, and performs MPEG decoding. Output a port stream. The descrambler 52 includes the tuner 5
1 receives an MPEG transport stream from an IC
The descramble key data stored in the card 65 is received via the IC card slot 62 and the control CPU 58, and descrambling is performed using the key data. The user can use the transport IC 53
, Via the man-machine interface 61 and the control CPU 58, and extracts MPEG video data and MPEG audio data of a desired television program from the transport stream. MPEG
The video decoder 55 converts MPEG video data supplied from the transport IC 53 into video data before data compression. MPEG audio decoder 54
Converts the MPEG audio data supplied from the transport IC 53 into audio data (P
(CM audio data). The digital-to-analog converter 56 is an MPEG audio decoder 54.
The audio data supplied from A is converted into an analog audio signal. The switch SW1 selectively supplies an analog audio signal supplied from the digital-analog converter 56 to the analog audio output terminals T3 and T4.

【0076】制御用CPU58は、IRD12全体の処
理を行う。また、制御用CPU58は、制御用CPU5
8に対してユーザがリモコン64を用いて入力した指令
をマンマシンインタフェース61を介して受け取る。制
御用CPU58には、モデム63が接続されている。課
金に必要な情報は、ICカード65に記憶される。この
ICカード65の情報は、モデム63を用いて電話回線
4を介して、課金サーバ5(図1)に送られる。
The control CPU 58 performs the processing of the entire IRD 12. Further, the control CPU 58 is
8 is received via the man-machine interface 61 by the user using the remote controller 64. The modem 63 is connected to the control CPU 58. Information required for charging is stored in the IC card 65. The information of the IC card 65 is sent to the charging server 5 (FIG. 1) via the telephone line 4 using the modem 63.

【0077】また、トランスポートIC53は、トラン
スポートストリームの中から、図4に示した音声付加情
報とGUIデータを取り込み、制御用CPU58に送
る。制御用CPU58は、これらのデータに基づいて、
リストページの画面や各楽曲の情報ページの画面、ある
いはEPG用の画面データ等を形成する。このようにし
て形成された画面データは、MPEGビデオデコーダ5
5内のバッファメモリの所定のエリアに書き込まれる。
これにより、図2に示したように、画面上の指定のエリ
アに、放送されてくる楽曲のリストページや各楽曲の情
報ページの画面、あるいはEPG用の画面を表示させる
ことができる。
The transport IC 53 fetches the audio additional information and GUI data shown in FIG. 4 from the transport stream and sends them to the control CPU 58. The control CPU 58, based on these data,
A screen of a list page, a screen of an information page of each song, or screen data for EPG is formed. The screen data thus formed is stored in the MPEG video decoder 5.
5 is written to a predetermined area of the buffer memory.
As a result, as shown in FIG. 2, it is possible to display a screen of a list page of broadcast music, an information page of each music, or a screen for EPG in a designated area on the screen.

【0078】次に、図7に示したIRD12の動作につ
いて説明する。
Next, the operation of the IRD 12 shown in FIG. 7 will be described.

【0079】図7に示したIRD12において、これま
で説明した音楽コンテンツ配信システムのチャンネルを
ユーザが選択すると、テレビジョン受像機14の画面上
に図2に示したようなGUI画面が表示される。
In the IRD 12 shown in FIG. 7, when the user selects a channel of the music content distribution system described above, a GUI screen as shown in FIG. 2 is displayed on the screen of the television receiver 14.

【0080】このとき、端子T1に入力された受信信号
は、チューナー51に供給される。チューナー51で
は、制御用CPU58からの設定信号に基づいて受信信
号の中から所定受信周波数の信号が選択され、更に復調
と誤り訂正処理が施されてMPEGトランスポートスト
リームが出力される。
At this time, the received signal input to terminal T 1 is supplied to tuner 51. In the tuner 51, a signal of a predetermined reception frequency is selected from the reception signals based on the setting signal from the control CPU 58, and further subjected to demodulation and error correction processing to output an MPEG transport stream.

【0081】チューナー51の出力はデスクランブラ5
2に供給される。デスクランブラ52では、ICカード
65に記憶されているデスクランブル用の鍵データがI
Cカードスロット62と制御用CPU58を介して入力
され、この鍵データを用いてMPEGトランスポートス
トリームのデスクランブルが行われる。デスクランブル
されたMPEGトランスポートストリームはトランスポ
ートIC53に送られる。
The output of tuner 51 is descrambler 5
2 is supplied. In the descrambler 52, the descramble key data stored in the IC card 65
The data is input via the C card slot 62 and the control CPU 58, and the key data is used to descramble the MPEG transport stream. The descrambled MPEG transport stream is sent to the transport IC 53.

【0082】トランスポートIC53には、ユーザがリ
モコン64から入力した指令が、マンマシンインタフェ
ース61と制御用CPU58とを介して入力される。ト
ランスポートIC53は、その指令に従って、トランス
ポートストリームの中から所望のテレビ番組のMPEG
ビデオデータとMPEGオーディオデータを抽出し、そ
れぞれMPEGビデオデコーダ55とMPEGオーディ
オデコーダ54に送る。
A command input by the user from the remote controller 64 is input to the transport IC 53 via the man-machine interface 61 and the control CPU 58. According to the command, the transport IC 53 converts the MPEG of the desired television program from the transport stream.
The video data and the MPEG audio data are extracted and sent to the MPEG video decoder 55 and the MPEG audio decoder 54, respectively.

【0083】MPEGビデオデコーダ55に送られたM
PEGビデオデータは、ここでデータ圧縮前のビデオデ
ータに変換され、次にNTSC変換ブロック57でコン
ポジットビデオ信号に変換された後、アナログビデオ出
力端子T2からテレビジョン受像機14へ出力される。
MPEGオーディオデコーダ54に送られたMPEGオ
ーディオデータは、ここでデータ圧縮前のオーディオデ
ータに変換され、次にデジタル−アナログコンバータ5
6でアナログオーディオ信号に変換された後、アナログ
オーディオ出力端子T3からテレビジョン受像機14へ
出力される。
The M sent to the MPEG video decoder 55
The PEG video data is converted into video data before data compression, and then converted into a composite video signal by the NTSC conversion block 57, and then output from the analog video output terminal T2 to the television receiver 14.
The MPEG audio data sent to the MPEG audio decoder 54 is converted into audio data before data compression here.
After being converted into an analog audio signal at 6, the analog audio signal is output from the analog audio output terminal T3 to the television receiver 14.

【0084】図2に示したGUI画面上の楽曲のリスト
21Bにより楽曲が選択され、その楽曲のオーディオデ
ータを試聴する場合には、トランスポートIC53にお
いてMPEGオーディオデータが抽出され、このMPE
GMPEGオーディオデータがオーディオデコーダ54
でデコードされ、デジタル−アナログコンバータ56で
デジタル−アナログ変換された後、スイッチSW1を通
ってアナログオーディオ出力端子T3からテレビジョン
受像機14へ出力される。
When a tune is selected from the tune list 21B on the GUI screen shown in FIG. 2 and the audio data of the tune is previewed, MPEG audio data is extracted by the transport IC 53, and the MPE is extracted.
The GMPEG audio data is transferred to the audio decoder 54.
After being decoded by the digital-to-analog converter 56, the digital-to-analog converter 56 converts the digital-to-analog data to digital data.

【0085】また、図2に示したGUI画面上でダウン
ロードボタン28が押され、オーディオデータをダウン
ロードする際には、トランスポートIC53においてオ
ーディオデータが抽出され、アテログオーディオ出力端
子T4、光デジタル出力インタフェース59、またはI
EEE1394インタフェース60のいずれか一つから
オーディオデータが出力される。
When the download button 28 is pressed on the GUI screen shown in FIG. 2 and the audio data is downloaded, the audio data is extracted by the transport IC 53, and an audio digital output terminal T4 and an optical digital output terminal Interface 59 or I
Audio data is output from any one of the IEEE 1394 interfaces 60.

【0086】ここで、図6(d)に示したように、IE
EE1394インタフェース60(デジタルインタフェ
ース端子Dif)に、IEEE1394MD13Cが接
続されている場合には、トランスポートIC53におい
て4倍速ATRACデータが抽出され、IEEE139
4インタフェース60を介して、IEEE1394MD
13Cに送出される。また、このとき、トランスポート
IC53においてJPEG方式で圧縮されているジャケ
ットデータが抽出され、IEEE1394インタフェー
ス60を介してIEEE1394MD13Cに送出され
る。更に、このとき、トランスポートIC53において
歌詞やアーティストのプロフィール等のテキストデータ
が抽出され、IEEE1394インタフェース60を介
して、IEEE1394MD13Cに送出される。
Here, as shown in FIG.
When the IEEE 1394 MD13C is connected to the IEEE 1394 interface 60 (digital interface terminal Dif), the transport IC 53 extracts the quadruple-speed ATRAC data and outputs the IEEE 139 MD139.
IEEE1394MD via the 4 interface 60
13C. At this time, jacket data compressed in the JPEG format is extracted in the transport IC 53 and sent to the IEEE 1394 MD 13C via the IEEE 1394 interface 60. Further, at this time, text data such as lyrics and artist profile is extracted by the transport IC 53 and transmitted to the IEEE 1394 MD 13C via the IEEE 1394 interface 60.

【0087】光デジタル出力インタフェース59に、I
EEE1394インタフェースを備えていないストレー
ジデバイス13B(図6(c))が接続されている場合
には、トランスポートIC53においてMPEGオーデ
ィオデータが抽出され、MPEGオーディオデコーダ5
4でデコードされた後、光デジタル出力インタフェース
59(デジタル出力端子Dout)を介してPCMオー
ディオデータがストレージデバイス13Bに送出され
る。
The optical digital output interface 59 has I
When a storage device 13B (FIG. 6C) not provided with the IEEE 1394 interface is connected, the transport IC 53 extracts the MPEG audio data, and the MPEG audio decoder 5
After the decoding at step 4, the PCM audio data is transmitted to the storage device 13B via the optical digital output interface 59 (digital output terminal Dout).

【0088】アナログオーディオ出力端子T4に、アナ
ログオーディオのみ入力できるストレージデバイス13
A(図6(a))が接続されている場合には、トランス
ポートIC53においてMPEGオーディオデータが抽
出され、MPEGオーディオデコーダ54でデコードさ
れ、更にデジタル−アナログコンバータ56でデジタル
−アナログ変換された後、スイッチSW1を通ってアナ
ログオーディオ出力端子T4(オーディオ出力端子Ao
ut)から、ストレージデバイス13Aに送出される。
The storage device 13 capable of inputting only analog audio to the analog audio output terminal T4
When A (FIG. 6A) is connected, MPEG audio data is extracted by the transport IC 53, decoded by the MPEG audio decoder 54, and further digital-analog converted by the digital-analog converter 56. , Through the switch SW1 and the analog audio output terminal T4 (audio output terminal Ao
ut) to the storage device 13A.

【0089】図8は、IEEE1394MD13Cの構
成の一例を示すブロック図である。このIEEE139
4MD13Cは、IEEE1394インタフェース71
と、光デジタル入力インタフェース72と、アナログオ
ーディオ入力端子T12と、アナログオーディオ出力端
子T13とを備えている。IEEE1394インタフェ
ース71は、記録再生部75と直接的に接続されている
と共に、ATRACエンコーダ74を介して記録再生部
75に接続されている。光デジタル入力インタフェース
72は、ATRACエンコーダ74を介して記録再生部
75に接続されている。アナログオーディオ入力端子T
12は、アナログ−デジタルコンバータ73を介してA
TRACエンコーダ74に接続されている。アナログオ
ーディオ出力端子T13は、デジタル−アナログコンバ
ータ78とATRACデコーダ77を介して記録再生部
75に接続されている。記録再生部75には、ディスク
76がセットされ、記録再生部75は、このディスク7
6に対して記録再生を行うようになっている。なお、こ
こでは図示を省略したが、このIEEE1394MD1
3Cには、全体の制御等を行う制御用CPUと、マンマ
シンインタフェースが設けられている。
FIG. 8 is a block diagram showing an example of the configuration of the IEEE1394MD13C. This IEEE139
4MD13C is an IEEE1394 interface 71
, An optical digital input interface 72, an analog audio input terminal T12, and an analog audio output terminal T13. The IEEE 1394 interface 71 is directly connected to the recording / reproducing unit 75, and is also connected to the recording / reproducing unit 75 via the ATRAC encoder 74. The optical digital input interface 72 is connected to a recording / reproducing unit 75 via an ATRAC encoder 74. Analog audio input terminal T
Reference numeral 12 denotes A through an analog-digital converter 73.
It is connected to a TRAC encoder 74. The analog audio output terminal T13 is connected to a recording / reproducing unit 75 via a digital-analog converter 78 and an ATRAC decoder 77. A disk 76 is set in the recording / reproducing section 75, and the recording / reproducing section 75
6 is recorded and reproduced. Although not shown here, the IEEE 1394 MD1
The 3C is provided with a control CPU for performing overall control and the like, and a man-machine interface.

【0090】次に、このIEEE1394MD13Cの
記録時の動作を説明する。
Next, the recording operation of the IEEE 1394 MD 13C will be described.

【0091】IEEE1394インタフェース71と図
7に示したIRD12のIEEE1394インタフェー
ス60とが接続されている場合には、IEEE1394
インタフェース60から送出された楽曲のオーディオデ
ータ、歌詞等のテキストデータや、ジャケット等の静止
画データは、IEEE1394インタフェース71から
入力され、そのまま記録再生部75によってディスク7
6に記録される。後で説明するように、このとき、ディ
スク76上には拡張MDフォーマットにより、各データ
が記録される。
When the IEEE 1394 interface 71 is connected to the IEEE 1394 interface 60 of the IRD 12 shown in FIG.
The audio data of the music, text data such as lyrics, and still image data such as a jacket transmitted from the interface 60 are input from the IEEE 1394 interface 71, and are directly recorded on the disk 7 by the recording / reproducing unit 75.
6 is recorded. As described later, at this time, each data is recorded on the disk 76 in the extended MD format.

【0092】光デジタル入力インタフェース72に外部
からPCMオーディオデータが入力される場合には、入
力されたPCMオーディオデータはATRACエンコー
ダ74でエンコードされた後、記録再生部75によって
ディスク76に記録される。
When PCM audio data is externally input to the optical digital input interface 72, the input PCM audio data is encoded by the ATRAC encoder 74 and then recorded on the disk 76 by the recording / reproducing unit 75.

【0093】アナログオーディオ入力端子T12に外部
からアナログオーディオ信号が入力される場合には、入
力されたアナログオーディオ信号はアナログ−デジタル
コンバータ73でアナログ−デジタル変換され、ATR
ACエンコーダ74でエンコードされた後、記録再生部
75によってディスク76に記録される。
When an analog audio signal is externally input to the analog audio input terminal T12, the input analog audio signal is converted from analog to digital by the analog to digital converter 73, and the ATR
After being encoded by the AC encoder 74, it is recorded on the disk 76 by the recording / reproducing unit 75.

【0094】つまり、このIEEE1394MD13C
では、IRD12との間がIEEE1394バスで接続
されている場合のみ、楽曲のオーディオデータと共にそ
の歌詞データやジャケットの静止画データ等が記録さ
れ、光デジタルインタフェースでの接続またはアナログ
オーディオ入力の場合には、オーディオデータのみが記
録される。
That is, the IEEE1394MD13C
Only when the connection with the IRD 12 is connected by the IEEE 1394 bus, the lyrics data and the still image data of the jacket are recorded together with the audio data of the music. In the case of the connection with the optical digital interface or the analog audio input, , Only audio data is recorded.

【0095】また、IEEE1394MD13Cでは、
再生時には、IEEE1394インタフェース71また
はアナログオーディオ出力端子T13から再生信号を出
力することができる。そして、ディスク76に楽曲のオ
ーディオデータと共にその歌詞データやジャケットデー
タ等が記録されている場合において、IEEE1394
インタフェース71から再生信号を出力するときには、
楽曲データをIEEE1394対応のオーディオ機器
(アンプ等)に出力することが可能であると共に、歌詞
データやジャケットデータ等をIEEE1394対応の
ディスプレイで表示したり、IEEE1394対応のプ
リンタで印刷したりすることが可能である。
In the IEEE1394MD13C,
At the time of reproduction, a reproduction signal can be output from the IEEE1394 interface 71 or the analog audio output terminal T13. When the lyric data and the jacket data are recorded on the disk 76 together with the audio data of the music, the IEEE 1394
When outputting a playback signal from the interface 71,
Music data can be output to an IEEE1394 compatible audio device (amplifier, etc.), and lyrics data and jacket data can be displayed on an IEEE1394 compatible display or printed with an IEEE1394 compatible printer. It is.

【0096】このように、本発明が適用されるIEEE
1394MD13Cでは、楽曲のオーディオデータと共
にその歌詞データやジャケットデータ等の記録再生が可
能である。
As described above, the IEEE to which the present invention is applied
In the 1394MD 13C, it is possible to record and reproduce lyrics data, jacket data, etc. together with audio data of a music piece.

【0097】図9は、楽曲のオーディオデータと共にそ
の歌詞データやジャケットデータ等の記録再生を可能と
する拡張MDフォーマットを示したものである。この図
に示したように、楽曲のオーディオデータは、ATRA
C方式でメインデータ(MainData )エリアに記録され
る。これは現行のMDフォーマットと同じである。そし
て、拡張MDフォーマットでは、更に2.8Mbyte
の補助データ(Aux Data)エリアに、前述したジャケッ
トデータや歌詞データ等を記録する。このような拡張M
Dフォーマットを使用することにより、楽曲のオーディ
オデータと共にジャケットデータや歌詞データ等を記録
再生することが可能となる。また、現行のMDフォーマ
ットとの互換性を維持することができる。
FIG. 9 shows an extended MD format which enables recording and reproduction of audio data of a musical piece, lyrics data thereof, jacket data, and the like. As shown in this figure, the audio data of the music is ATRA
It is recorded in the main data (MainData) area in the C system. This is the same as the current MD format. In the extended MD format, 2.8 Mbytes are further added.
The above-mentioned jacket data, lyrics data, etc. are recorded in the auxiliary data (Aux Data) area. Such an extension M
By using the D format, it becomes possible to record and reproduce jacket data, lyrics data, etc. together with the audio data of the music. Further, compatibility with the current MD format can be maintained.

【0098】次に、本実施の形態の特徴部分について説
明する。
Next, features of the present embodiment will be described.

【0099】始めに、ダウンロード可能な楽曲に付随す
る歌詞等の付随情報について説明する。付随情報として
は、楽曲の歌詞データ、楽曲の説明データ、アーティス
トの説明データ、楽曲に関連する画像(その楽曲が収録
されているアルバムのジャケット写真やアーティストの
写真等の画像、アニメーション、プロモーション画像
等)のデータ等がある。このうち、楽曲の歌詞データ、
楽曲の説明データ、アーティストの説明データは、テキ
ストデータとされ、楽曲に関連する画像のデータは、J
PEG方式による圧縮画像データとされる。これらの付
随情報は、GUIデータの一部としての付随データによ
って、地上局1から受信設備3へ伝送される。
First, the accompanying information such as the lyrics accompanying the downloadable music will be described. The accompanying information includes song lyrics data, song description data, artist description data, images related to the songs (images such as jacket photos of albums containing the songs, artist photos, animations, promotion images, etc.). ) Data. Of these, song lyrics data,
The description data of the music and the description data of the artist are text data, and the image data related to the music is J data.
It is compressed image data according to the PEG method. These accompanying information is transmitted from the ground station 1 to the receiving facility 3 by accompanying data as a part of the GUI data.

【0100】図10は、付随情報を伝送するための付随
データのデータ構造の一例を示したものである。この例
では、付随情報は、各楽曲およびデータの種類毎に1つ
のファイルにまとめられる。本実施の形態において、こ
のファイルを、楽曲付随情報ファイルと呼ぶ。この楽曲
付随情報ファイルは、1つのファイル毎に設けられたフ
ァイルヘッダ部110と、1以上のデータ部111と、
各データ部111毎に設けられたサブファイルヘッダ部
112とを有している。1つのファイルにまとめられる
付随情報は、所定の単位毎に分割されて、分割データ
(図10において、データ1、データ2、データ3、…
と記す。)とされる。各分割データは、それぞれデータ
部111に格納される。ファイルヘッダ部110には、
ファイルの種類(歌詞データ、圧縮画像データ等)、著
作権情報、ファイルのサイズ、対応する楽曲の識別情報
であるサブプログラムタグ(Sub Program Tag ;以下、
SPTと記す。)等のファイルの全体に関する情報が記
述される。サブファイルヘッダ部112には、対応する
データ部111に格納されたデータの表示開始時刻およ
び表示終了時刻が、時、分、秒で表されて記述される。
なお、この表示開始時刻および表示終了時刻は、楽曲の
演奏開始時からの経過時間で表される。
FIG. 10 shows an example of the data structure of the accompanying data for transmitting the accompanying information. In this example, the accompanying information is collected into one file for each song and data type. In the present embodiment, this file is referred to as a music accompanying information file. This music accompanying information file includes a file header section 110 provided for each file, one or more data sections 111,
And a sub-file header section 112 provided for each data section 111. The accompanying information compiled into one file is divided for each predetermined unit and divided data (in FIG. 10, data 1, data 2, data 3,...)
It is written. ). Each divided data is stored in the data section 111. In the file header section 110,
Sub-program tag (Sub Program Tag; hereinafter, the file type (lyric data, compressed image data, etc.), copyright information, file size, and corresponding music identification information)
Notated as SPT. ) Is described. In the subfile header section 112, the display start time and the display end time of the data stored in the corresponding data section 111 are described in hours, minutes, and seconds.
Note that the display start time and the display end time are represented by the elapsed time from the start of the music performance.

【0101】例えば付随情報が歌詞データの場合におい
て、楽曲付随情報ファイルを作成する際には、1楽曲分
の歌詞データを、フレーズ毎または画面に表示しやすい
単位毎に分割して、分割データとし、各分割データをデ
ータ部111に格納する。また、各データ部111に対
応するサブファイルヘッダ部112に、データ部111
に格納されたデータの表示開始時刻、表示終了時刻を記
述する。また、ファイルヘッダ部110には、ファイル
の種類が歌詞データである旨を記述すると共に、著作権
情報、ファイルのサイズ、対応する楽曲のSPT等を記
述する。このようなデータ構造の楽曲付随情報ファイル
を作成することで、後で詳しく説明するように、各デー
タ部111に格納されたデータ毎に、サブファイルヘッ
ダ部112に記述された表示開始時刻から表示終了時刻
までの間、表示させることが可能となり、これにより、
選択した楽曲の提示に同期させて、歌詞を表示させるこ
とが可能となる。
For example, in the case where the accompanying information is lyrics data, when creating a song accompanying information file, the lyrics data for one song is divided into phrases or units which are easy to display on the screen, and the divided data is obtained. Then, each divided data is stored in the data section 111. In addition, a sub-file header section 112 corresponding to each data section 111 has a data section 111
Describes the display start time and display end time of the data stored in. The file header section 110 describes that the file type is lyrics data, and also describes copyright information, file size, SPT of the corresponding music, and the like. By creating the music-related information file having such a data structure, as described in detail later, the data stored in each data section 111 is displayed from the display start time described in the sub-file header section 112. It is possible to display until the end time,
The lyrics can be displayed in synchronization with the presentation of the selected music.

【0102】歌詞データ以外の他の種類の付随情報の場
合も、上述のデータ構造の楽曲付随情報ファイルを作成
することで、選択した楽曲の提示に同期させて、付随情
報を提示させることが可能となる。
In the case of other types of accompanying information other than the lyrics data, the accompanying information can be presented in synchronization with the presentation of the selected song by creating a song accompanying information file having the above data structure. Becomes

【0103】なお、サブファイルヘッダを持たない楽曲
付随情報ファイルを作成した場合には、1つの楽曲付随
情報ファイルに含まれる全てのデータが一括して表示さ
れる。
When a music-related information file having no sub-file header is created, all data included in one music-related information file is displayed collectively.

【0104】上述のようなデータ構造の楽曲付随情報フ
ァイルは、図3におけるGUIオーサリングシステム4
2によって生成され、GUIデータの一部として、地上
局1から受信設備3へ伝送される。
The music-related information file having the above data structure is stored in the GUI authoring system 4 shown in FIG.
2 and transmitted from the ground station 1 to the receiving facility 3 as part of the GUI data.

【0105】次に、本実施の形態において、選択した楽
曲に付随する歌詞データ等の付随情報を、選択した楽曲
の再生時に、その楽曲に同期して提示するための仕組み
について説明する。
Next, a description will be given of a mechanism for presenting accompanying information such as lyric data accompanying the selected music in synchronization with the selected music in the present embodiment.

【0106】まず、図11を参照して、楽曲に同期して
付随情報を提示するために必要となる時間情報について
説明する。地上局1から受信設備3へ、各種のデータ
は、MPEGトランスポートストリームにおけるトラン
スポートパケットによって伝送される。図11(b)
は、このトランスポートパケットのデータ構造を示した
ものである。トランスポートパケットは、制御情報が格
納されるトランスポートヘッダ123と、伝送すべき情
報が格納されるペイロード124とを有している。トラ
ンスポートパケットにおけるペイロード124は、パケ
ッタイズド・エレメンタリストリーム(以下、PESと
記す。)を、所定データ長毎に区切ったものになってい
る。図11(a)は、このPESにおけるパケットであ
るPESパケットのデータ構造を示したものである。P
ESパケットは、制御情報が格納されるPESヘッダ1
21と、データ部122とを有している。
First, with reference to FIG. 11, a description will be given of time information necessary for presenting accompanying information in synchronization with music. Various data are transmitted from the ground station 1 to the receiving facility 3 by transport packets in an MPEG transport stream. FIG. 11B
Shows the data structure of this transport packet. The transport packet has a transport header 123 in which control information is stored, and a payload 124 in which information to be transmitted is stored. The payload 124 in the transport packet is obtained by dividing a packetized elementary stream (hereinafter referred to as PES) for each predetermined data length. FIG. 11A shows a data structure of a PES packet which is a packet in the PES. P
The ES packet is a PES header 1 in which control information is stored.
21 and a data section 122.

【0107】なお、図11(c)に示したように、トラ
ンスポートパケットのトランスポートヘッダ123に
は、パケットの種類を表すパケット識別情報(Packet I
dentification ;以下、PIDと記す。)が記述されて
いる。
As shown in FIG. 11C, the transport header 123 of the transport packet includes packet identification information (Packet I) indicating the type of the packet.
dentification; hereinafter, referred to as PID. ) Is described.

【0108】MPEGシステムでは、プログラムクロッ
クリファレンス(Program Clock Reference ;以下、P
CRと記す。)という27MHzの時刻基準情報を、ト
ランスポートパケットによって、送信機より受信機へ伝
送する。PCRは、42ビット長の絶対時間の情報であ
り、PCRを含むパケットが到達した瞬間の時刻を表
す。
In the MPEG system, a program clock reference (Program Clock Reference; hereinafter, P
Recorded as CR. ) Is transmitted from the transmitter to the receiver by a transport packet. The PCR is information on absolute time having a length of 42 bits, and indicates a time instant when a packet including the PCR arrives.

【0109】MPEGシステムでは、送信機と受信機
が、それぞれ、システム基準時計(System Time Clock
;以下、STCと記す。)を持っている。受信機は、
位相同期化ループ(以下、PLLと記す。)により、自
己の持つSTCを、送られてきたPCRの値に合わせ
る。これにより、送信機と受信機との間で、27MHz
の同期をとることができる。MPEGシステムでは、2
7MHzが同期の基準となっている。受信機のSTCで
生成される27MHzのクロックは、信号処理における
基準クロックとして、MPEGオーディオデコーダ54
やMPEGビデオデコーダ55等に供給される。
[0109] In the MPEG system, a transmitter and a receiver are respectively provided with a system time clock (System Time Clock).
Hereinafter referred to as STC. )have. The receiver is
A phase synchronization loop (hereinafter, referred to as PLL) adjusts its own STC to the value of the transmitted PCR. This allows 27MHz between transmitter and receiver
Can be synchronized. In the MPEG system, 2
7 MHz is the reference for synchronization. The 27 MHz clock generated by the STC of the receiver is used as a reference clock in signal processing as an MPEG audio decoder 54.
And the MPEG video decoder 55 and the like.

【0110】このようにして、送信機と受信機で27M
Hzの基準クロックを同期させることで、送信機と受信
機の間で同期をとることが可能となる。MPEGシステ
ムでは、この27MHzの基準クロックを用いて、以下
のようにして、1つのサービスにおけるビデオデータと
オーディオデータの同期をとるようになっている。
In this way, the transmitter and the receiver have 27M
By synchronizing the Hz reference clock, synchronization can be achieved between the transmitter and the receiver. In the MPEG system, using the 27 MHz reference clock, video data and audio data in one service are synchronized as follows.

【0111】すなわち、MPEGシステムでは、ビデオ
データとオーディオデータの同期をとるために、アクセ
スユニット(ビデオデータではピクチャ、オーディオデ
ータでは符号化フレーム)毎に、提示時刻情報(Presen
tation Time Stamp ;以下、PTSと記す。)を多重化
して伝送する。PTSは、図11(a)に示したPES
パケットのPESヘッダ121内に格納され、図11
(b)に示したトランスポートパケットのペイロード1
24に格納されて伝送される。
That is, in the MPEG system, in order to synchronize video data and audio data, presentation time information (Presentation information) is provided for each access unit (a picture for video data and a coded frame for audio data).
tation Time Stamp; hereinafter, referred to as PTS. ) Is multiplexed and transmitted. The PTS is the PES shown in FIG.
11 stored in the PES header 121 of the packet.
Payload 1 of the transport packet shown in (b)
24 and transmitted.

【0112】受信機は、ビデオデータのPTSが、ST
Cの値と一致したときに、デコードしたビデオデータを
出力し、同様に、オーディオデータのPTSが、STC
の値と一致したときに、デコードしたオーディオデータ
を出力する。これにより、ビデオデータとオーディオデ
ータの同期がとられる。
The receiver sets the PTS of the video data to ST
When the value matches the value of C, the decoded video data is output.
When the value matches, the decoded audio data is output. As a result, the video data and the audio data are synchronized.

【0113】本実施の形態では、歌詞データ等の付随情
報を、楽曲に同期して提示するために、音声付加情報
と、図10に示した楽曲付随情報ファイル中のサブファ
イルヘッダ部112とを利用する。
In the present embodiment, in order to present accompanying information such as lyrics data in synchronism with the music, the audio additional information and the sub-file header section 112 in the music accompanying information file shown in FIG. Use.

【0114】音声付加情報には、対応する楽曲の全演奏
時間と楽曲の演奏開始時からの経過時間とが、時、分、
秒で表されて記述される。また、各音声付加情報には、
それぞれPTSが与えられる。このPTSは、図11
(a)に示したPESパケットのPESヘッダ121内
に格納され、図11(b)に示したトランスポートパケ
ットのペイロード124に格納されて伝送される。受信
機は、音声付加情報のPTSが、STCの値と一致した
ときに、音声付加情報、すなわち対応する楽曲の全演奏
時間と経過時間の情報を有効とする。
[0114] The audio additional information includes the total playing time of the corresponding music and the elapsed time from the start of playing the music, in hours, minutes, and minutes.
Described in seconds. In addition, each audio additional information includes
Each is given a PTS. This PTS is shown in FIG.
The packet is stored in the PES header 121 of the PES packet shown in FIG. 11A and stored in the payload 124 of the transport packet shown in FIG. When the PTS of the additional audio information matches the value of the STC, the receiver validates the additional audio information, that is, information on the total playing time and elapsed time of the corresponding music piece.

【0115】ここで、受信機のSTCで生成される27
MHzのクロックは、受信機が扱う情報としては便利で
あるが、MPEGを扱わない機器にとっては扱い難い。
そこで、本実施の形態では、受信機外でもサービスとし
て使用され得る情報である付随情報については、27M
Hzのクロックから、時、分、秒で表される絶対時間の
情報を生成し、この情報を、時間情報として扱う。これ
により、付随情報の処理が容易になる。本実施の形態で
は、具体的には、前述のように、音声付加情報のPTS
が、STCの値と一致したときに、音声付加情報中の経
過時間の情報を有効とすることにより、時、分、秒で表
される絶対時間の情報を生成する。そして、楽曲付随情
報ファイル中のサブファイルヘッダ部112に記述され
た表示開始時刻および表示終了時刻と、時、分、秒で表
される絶対時間の情報とを用いて、付随情報の表示(提
示)のタイミングを制御する。
Here, 27 generated by the STC of the receiver is used.
The MHz clock is convenient as information handled by the receiver, but is difficult to handle for equipment that does not handle MPEG.
Therefore, in the present embodiment, the accompanying information, which is information that can be used as a service outside the receiver, is 27M
From the clock of Hz, information of absolute time represented by hours, minutes and seconds is generated, and this information is treated as time information. This facilitates processing of the accompanying information. In the present embodiment, specifically, as described above, the PTS of the audio additional information
When the value coincides with the STC value, the information on the elapsed time in the audio additional information is made valid, thereby generating information on the absolute time expressed in hours, minutes, and seconds. Then, using the display start time and display end time described in the sub-file header section 112 in the music accompanying information file and the absolute time information expressed in hours, minutes, and seconds, display (presentation) of the accompanying information. ) To control the timing.

【0116】次に、選択された楽曲と、音声付加情報
と、歌詞データ等の付随情報との対応をとるための仕組
みについて説明する。画面上のGUIの操作により楽曲
の選択等を可能とするための情報は、GUIデータによ
って与えられる。このGUIデータには、楽曲の歌詞デ
ータ、楽曲の説明データ、アーティストの説明データ、
楽曲に関連する画像データ等の複数の種類のデータが含
まれる。これらの複数の種類のデータは、それぞれ各楽
曲毎のデータを含んでいる。各楽曲毎のデータには、そ
れぞれSPTが付加されており、このSPTによって各
楽曲毎のデータが識別される。従って、IRD12にお
いて、画面上のGUIの操作により、ある楽曲を選択す
ると、その楽曲に対応したSPTが得られる。そして、
IRD12は、このSPTに基づいて、受信したデータ
の中から、選択された楽曲のデータと音声付加情報と付
随情報とを抽出する。
Next, a description will be given of a mechanism for associating the selected music, the additional audio information, and the accompanying information such as lyrics data. Information for enabling selection of music and the like by operating the GUI on the screen is given by GUI data. The GUI data includes song lyrics data, song description data, artist description data,
A plurality of types of data such as image data related to music are included. Each of the plurality of types of data includes data for each music piece. The SPT is added to the data for each song, and the SPT identifies the data for each song. Therefore, when a certain music is selected by operating the GUI on the screen in the IRD 12, an SPT corresponding to the music is obtained. And
Based on the SPT, the IRD 12 extracts the data of the selected music, the audio additional information, and the accompanying information from the received data.

【0117】ここで、SPTに基づいて、選択された楽
曲のデータと音声付加情報を抽出する方法について説明
する。トランスポートストリームには、複数のチャンネ
ル(プログラム)から目的のチャンネル(プログラム)
を取り出すことを可能とするために、プログラム関係テ
ーブル(Program Association Table ;以下、PATと
記す。)と、プログラムマップテーブル(Program Map
Table ;以下、PMTと記す。)が多重化される。
Here, a method of extracting the data of the selected music piece and the additional audio information based on the SPT will be described. The transport stream can include multiple channels (programs) to target channels (programs)
In order to make it possible to extract the PAT, a program association table (hereinafter referred to as PAT) and a program map table (Program Map)
Table; hereinafter, referred to as PMT. ) Are multiplexed.

【0118】PATには、各チャンネル毎のPMTに対
応したPIDが記述されている。なお、PATを含むト
ランスポートパケットのPIDは、“0”となってい
る。PMTには、そのチャンネルにおけるビデオデー
タ、オーディオデータ等のデータの種類毎のPIDが記
述されている。
The PAT describes a PID corresponding to the PMT for each channel. Note that the PID of the transport packet including the PAT is “0”. The PMT describes a PID for each type of data such as video data and audio data in the channel.

【0119】従って、IRD12は、PIDが“0”の
トランスポートパケットを抽出することによって、PA
Tを得ることができる。IRD12は、更に、PATに
記述されている各チャンネル毎のPMTに対応したPI
Dのトランスポートパケットを抽出することによって、
各チャンネル毎のPMTを得ることができる。IRD1
2は、この各チャンネル毎のPMTによって、各チャン
ネルにおけるデータの種類毎のPIDを知ることができ
る。このようにして、IRD12は、選択されたチャン
ネルにおけるデータの種類毎のPIDを知り、それらの
PIDのトランスポートパケットを抽出することによっ
て、選択されたチャンネルにおけるビデオデータやオー
ディオデータを抽出することが可能となる。
Therefore, the IRD 12 extracts the transport packet whose PID is “0”,
T can be obtained. The IRD 12 further includes a PI corresponding to the PMT for each channel described in the PAT.
By extracting D's transport packet,
A PMT for each channel can be obtained. IRD1
2 can know the PID for each type of data in each channel from the PMT for each channel. In this way, the IRD 12 knows the PID for each type of data in the selected channel and extracts the transport packets of those PIDs, thereby extracting video data and audio data in the selected channel. It becomes possible.

【0120】ここで、これまで説明した楽曲データのダ
ウンロードの可能な音楽放送のチャンネルを、EMD
(Electric Music Download)のチャンネルと呼ぶことに
する。本実施の形態では、このEMDのチャンネルに関
しては、PMTの他に、サブ(Sub )PMT(以下、S
MTと記す。)を定義している。このSMTは、ダウン
ロード可能な各楽曲毎に用意される。SMTには、その
楽曲におけるMPEGオーディオデータ、ATRACデ
ータ、音声付加データ毎のPIDが記述されている。
Here, the music broadcast channel from which the music data described above can be downloaded is set to EMD.
(Electric Music Download) channel. In the present embodiment, in addition to the PMT, a sub PMT (hereinafter referred to as S
Notated as MT. ) Is defined. This SMT is prepared for each music that can be downloaded. The SMT describes the PID of each of the MPEG audio data, ATRAC data, and audio additional data in the music.

【0121】また、本実施の形態では、EMDのチャン
ネルのPMTには、ビデオデータ、オーディオデータ、
GUIデータ等のデータの種類毎のPIDの他に、ダウ
ンロード可能な各楽曲毎のSMTのPIDが記述されて
いる。本実施の形態において、このダウンロード可能な
各楽曲毎のSMTのPIDを記述するものを、リンケー
ジディスクリプタ(Linkage descriptor)と呼ぶ。
In this embodiment, the PMT of the EMD channel includes video data, audio data,
In addition to the PID for each type of data such as GUI data, the SMT PID for each downloadable song is described. In the present embodiment, the description of the SMT PID for each downloadable music piece is called a linkage descriptor.

【0122】図12は、上述のPAT、PMTおよびS
MTの関係を、概念的に表したものである。この図に示
したように、PATには、各チャンネル毎のPMTに対
応したPIDが記述されている。図12に示した例で
は、PATに、4つのチャンネルのPMT、すなわちP
MT1〜PMT4のPIDが記述されているものとす
る。ここで、PMT4は、EMDのチャンネルのPMT
であるものとする。このPMT4には、ダウンロード可
能な各楽曲毎のSMTのPIDを記述する複数のリンケ
ージディスクリプタが含まれている。図12に示した例
では、ダウンロード可能な楽曲が10曲あり、SMT
も、SMT1〜SMT10の10個あるものとする。各
楽曲毎のリンケージディスクリプタおよびSMTには、
それぞれSPTが付加されており、このSPTによっ
て、各楽曲毎のリンケージディスクリプタおよびSMT
が識別される。
FIG. 12 shows the above PAT, PMT and S
This is a conceptual representation of the relationship between MTs. As shown in the figure, the PAT describes a PID corresponding to the PMT for each channel. In the example shown in FIG. 12, the PAT has four channels of PMT, that is, PMT.
It is assumed that PIDs of MT1 to PMT4 are described. Here, PMT4 is the PMT of the EMD channel.
It is assumed that The PMT 4 includes a plurality of linkage descriptors describing the PID of the SMT for each song that can be downloaded. In the example shown in FIG. 12, there are 10 songs that can be downloaded and the SMT
It is also assumed that there are ten SMT1 to SMT10. In the linkage descriptor and SMT for each song,
Each SPT is added, and the SPT is used to generate a linkage descriptor and an SMT for each music.
Is identified.

【0123】このようなPAT、PMTおよびSMTの
仕組みにより、IRD12は、EMDのチャンネルが選
択されているときにおいて、ダウンロード可能な複数の
楽曲の中から任意の楽曲が選択されたときには、選択さ
れた楽曲のSPTに基づいて、EMDのチャンネルのP
MTの中から、選択された楽曲のSMTのPIDを知
り、更に、そのPIDに対応するSMTより、その楽曲
におけるMPEGオーディオデータ、ATRACデー
タ、音声付加データ毎のPIDを知り、それらのPID
のトランスポートパケットを抽出することによって、選
択されたチャンネルにおけるMPEGオーディオデー
タ、ATRACデータ、音声付加データを抽出すること
が可能となる。
With the mechanism of PAT, PMT and SMT, the IRD 12 is selected when an EMD channel is selected and an arbitrary music piece is selected from a plurality of downloadable music pieces. Based on the SPT of the song, the P of the EMD channel
From the MT, the PID of the SMT of the selected music is known, and further, the PID of each of the MPEG audio data, ATRAC data, and audio additional data of the music is known from the SMT corresponding to the PID, and the PIDs thereof are obtained.
, It is possible to extract MPEG audio data, ATRAC data, and audio additional data in the selected channel.

【0124】また、IRD12は、EMDのチャンネル
が選択されているときにおいて、ダウンロード可能な複
数の楽曲の中から任意の楽曲が選択されたときには、選
択された楽曲のSPTに基づいて、GUIデータの中か
ら、選択された楽曲の付随情報を抽出する。
When an EMD channel is selected and an arbitrary song is selected from a plurality of downloadable songs, the IRD 12 outputs the GUI data based on the SPT of the selected song. From among them, the accompanying information of the selected music is extracted.

【0125】このようにして、SPTに基づいて、選択
された楽曲と、音声付加情報と、歌詞データ等の付随情
報とが対応づけられる。
In this way, based on the SPT, the selected music piece, the voice additional information, and the accompanying information such as lyrics data are associated.

【0126】図13は、IRD12において、歌詞デー
タ等の付随情報を、楽曲に同期して提示するための回路
構成を示すブロック図である。この図に示したように、
IRD12は、STCを構成するSTCカウンタ131
と、IRD12の電源がオンになったときに、制御用C
PU58によってオンにされて、トランスポートストリ
ームより抽出されたPCRをSTCカウンタ131にセ
ットするためのスイッチ132と、STCカウンタ13
1のカウント値と抽出されたPCRの値を比較し、両者
の差に対応した信号を出力する比較器133と、この比
較器133より出力される信号に基づいて発振周波数が
制御される電圧制御発振器(以下、VCOと記す。)1
34とを備えている。VCO134は、27MHzのク
ロックを生成する。STCカウンタ131は、VCO1
34が生成するクロックを入力し、カウントする。
FIG. 13 is a block diagram showing a circuit configuration for presenting accompanying information such as lyrics data in the IRD 12 in synchronization with music. As shown in this figure,
The IRD 12 includes an STC counter 131 constituting the STC.
When the power of the IRD 12 is turned on, the control C
A switch 132 for setting a PCR extracted from the transport stream, which is turned on by the PU 58, to the STC counter 131;
A comparator 133 that compares the count value of 1 with the extracted PCR value and outputs a signal corresponding to the difference between the two, and a voltage control that controls the oscillation frequency based on the signal output from the comparator 133 Oscillator (hereinafter, referred to as VCO) 1
34. The VCO 134 generates a 27 MHz clock. The STC counter 131 has the VCO1
The clock generated by 34 is input and counted.

【0127】IRD12内のMPEGオーディオデコー
ダ54は、トランスポートIC53から出力されるMP
EGオーディオデータ141をデコードして、オーディ
オデータ142を出力するオーディオデコーダ135
と、オーディオデータのPTSとSTCカウンタ131
のカウント値を比較して、両者が一致したときに、オー
ディオデコーダ135に対してオーディオデータの出力
指示を与える比較器136とを備えている。
[0127] The MPEG audio decoder 54 in the IRD 12 controls the MP output from the transport IC 53.
Audio decoder 135 that decodes EG audio data 141 and outputs audio data 142
And PTS of audio data and STC counter 131
And a comparator 136 for giving an audio data output instruction to the audio decoder 135 when the count values match.

【0128】IRD12は、更に、音声付加情報のPT
SとSTCカウンタ131のカウント値を比較して、両
者が一致したときに、後述するゲート回路をオンにする
ためのオン信号を出力する比較器137と、音声付加情
報中の経過時間の情報143を入力し、比較器137よ
り出力されるオン信号が入力されたときに、経過時間の
情報143を出力するゲート回路138と、このゲート
回路138より出力される経過時間の情報143と歌詞
データ等の付随情報におけるサブファイルヘッダに記述
された表示開始時刻144および表示終了時刻145と
を比較し、経過時間の情報143と表示開始時刻144
とが一致したときには歌詞の表示の開始を指示する信号
146を出力し、経過時間の情報143と表示終了時刻
145とが一致したときには歌詞の表示の終了を指示す
る信号147を出力する比較器139とを備えている。
The IRD 12 further stores the PT of the audio additional information.
S and the count value of the STC counter 131 are compared, and when they match, a comparator 137 that outputs an ON signal for turning on a gate circuit described later, and information 143 of the elapsed time in the audio additional information , A gate circuit 138 that outputs elapsed time information 143 when an ON signal output from the comparator 137 is input, the elapsed time information 143 output from the gate circuit 138, lyrics data, etc. The display start time 144 and the display end time 145 described in the sub-file header in the accompanying information of are compared, and the elapsed time information 143 and the display start time 144 are compared.
139 outputs a signal 146 instructing the start of the display of lyrics when the information matches, and outputs a signal 147 instructing the end of the display of the lyrics when the elapsed time information 143 and the display end time 145 match. And

【0129】次に、付随情報が歌詞データである場合を
例にとって、図13に示した回路の動作について説明す
る。IRD12の電源がオンにされると、トランスポー
トIC53によって、トランスポートストリームに含ま
れるPCRが抽出され、このとき、制御用CPU58に
よって、スイッチ132がオンにされて、抽出されたP
CRの値がSTCカウンタ131にセットされる。ST
Cカウンタ131にPCRの値がセットされると、スイ
ッチ132はオフにされて、STCカウンタ131は、
VCO134から供給されるクロックのカウントを始め
る。STCカウンタ131のカウント値は、比較器13
3に供給される。比較器133は、STCカウンタ13
1のカウント値と、トランスポートストリームから新た
に抽出されたPCRの値とを比較し、両者の差に対応す
る信号を出力する。この比較器133より出力される信
号に基づいて、VCO134の発振周波数が制御され
る。このようにして、STCカウンタ131のカウント
値がPCRの値に合うように、PLL制御が行われる。
Next, the operation of the circuit shown in FIG. 13 will be described, taking as an example a case where the accompanying information is lyrics data. When the power of the IRD 12 is turned on, the PCR included in the transport stream is extracted by the transport IC 53. At this time, the switch 132 is turned on by the control CPU 58, and the extracted P
The value of CR is set in the STC counter 131. ST
When the PCR value is set in the C counter 131, the switch 132 is turned off, and the STC counter 131
The counting of the clock supplied from the VCO 134 is started. The count value of the STC counter 131 is
3 is supplied. The comparator 133 is provided with the STC counter 13
The count value of 1 is compared with a PCR value newly extracted from the transport stream, and a signal corresponding to the difference between the two is output. The oscillation frequency of VCO 134 is controlled based on the signal output from comparator 133. In this way, the PLL control is performed so that the count value of the STC counter 131 matches the value of the PCR.

【0130】MPEGオーディオデコーダ54では、比
較器136が、オーディオデータのPTSとSTCカウ
ンタ131のカウント値を比較して、両者が一致したと
きに、オーディオデコーダ135に対してオーディオデ
ータの出力指示を与える。オーディオデコーダ135
は、オーディオデータの出力指示が与えられると、MP
EGオーディオデータ141をデコードして、オーディ
オデータ142を出力する。ダウンロード可能な複数の
楽曲の中から任意の楽曲が選択されているときは、選択
された楽曲が再生される。
In the MPEG audio decoder 54, the comparator 136 compares the PTS of the audio data with the count value of the STC counter 131, and when they match, gives an audio data output instruction to the audio decoder 135. . Audio decoder 135
When an audio data output instruction is given, MP
The EG audio data 141 is decoded, and the audio data 142 is output. When an arbitrary song is selected from a plurality of downloadable songs, the selected song is played.

【0131】また、比較器137において、音声付加情
報のPTSとSTCカウンタ131のカウント値とが比
較され、両者が一致したときに、ゲート回路138をオ
ンにするためのオン信号が出力される。このオン信号が
出力される時点で、実際の楽曲の演奏開始時からの経過
時間と、音声付加情報中の経過時間とが一致する。オン
信号が出力されるとゲート回路138がオンになり、音
声付加情報中の経過時間の情報143が比較器139に
対して出力される。比較器139は、経過時間の情報1
43と歌詞データにおけるサブファイルヘッダに記述さ
れた表示開始時刻144および表示終了時刻145とを
比較し、経過時間の情報143と表示開始時刻144と
が一致したときには歌詞の表示の開始を指示する信号1
46を出力し、経過時間の情報143と表示終了時刻1
45とが一致したときには歌詞の表示の終了を指示する
信号147を出力する。これらの信号146,147
は、制御用CPU58に送られる。制御用CPU58
は、信号146を入力すると、経過時間の情報143と
一致する表示開始時刻144が記述されたサブファイル
ヘッダに対応した歌詞のデータに基づいて、歌詞を表示
するための処理を行い、信号147を入力すると、歌詞
の表示を終了するための処理を行う。
The comparator 137 compares the PTS of the audio additional information with the count value of the STC counter 131, and when they match, outputs an ON signal for turning on the gate circuit 138. At the time when this ON signal is output, the elapsed time from the start of the performance of the actual music piece matches the elapsed time in the audio additional information. When the ON signal is output, the gate circuit 138 is turned on, and information 143 on the elapsed time in the audio additional information is output to the comparator 139. The comparator 139 outputs the elapsed time information 1
43 is compared with the display start time 144 and the display end time 145 described in the sub-file header of the lyrics data, and when the elapsed time information 143 matches the display start time 144, a signal instructing the start of the display of the lyrics. 1
46, the elapsed time information 143 and the display end time 1
When the number matches 45, a signal 147 for instructing the end of the display of the lyrics is output. These signals 146,147
Is sent to the control CPU 58. Control CPU 58
Receives the signal 146, performs processing for displaying lyrics based on the lyrics data corresponding to the subfile header in which the display start time 144 that matches the elapsed time information 143 is described, and generates the signal 147. Upon input, processing for ending the display of lyrics is performed.

【0132】次に、図14ないし図16の流れ図を参照
して、IRD12において、選択された楽曲の提示に同
期させて歌詞を表示させる動作について説明する。
Next, the operation of displaying the lyrics in the IRD 12 in synchronization with the presentation of the selected music will be described with reference to the flowcharts of FIGS.

【0133】図14は、EMDチャンネルを選択した場
合に図2に示したようなGUI画面が表示されるまでの
IRD12の動作を示す流れ図である。この動作では、
IRD12においてEMDチャンネルを選択すると(ス
テップS101)、IRD12は、EMDチャンネルの
PMTを取得する(ステップS102)。次に、IRD
12は、このEMDチャンネルのPMTより、図1にお
けるテレビ番組素材サーバ6から供給される音楽番組の
ビデオデータである主ビデオデータのPIDと、その音
楽番組のオーディオデータである主オーディオデータの
PIDとを取得する(ステップS103)。次に、IR
D12は、EMDチャンネルのPMTより、GUIデー
タのPIDを取得する(ステップS104)。次に、I
RD12は、GUIデータのPIDを持つトランスポー
トパケットを抽出することによって、トランスポートス
トリームより、GUIデータを抽出し、このGUIデー
タに基づいて、図2に示したようなGUI画面を表示す
ると共に、主ビデオデータのPIDと主オーディオデー
タのPIDに基づいて主ビデオデータと主オーディオデ
ータとを抽出して音楽番組を再生して(ステップS10
5)、GUI画面の表示までの動作を終了する。
FIG. 14 is a flowchart showing the operation of the IRD 12 until the GUI screen shown in FIG. 2 is displayed when the EMD channel is selected. In this behavior,
When an EMD channel is selected in the IRD 12 (step S101), the IRD 12 acquires a PMT of the EMD channel (step S102). Next, IRD
Reference numeral 12 denotes a PMT of main video data, which is video data of a music program supplied from the TV program material server 6 in FIG. 1, and a PID of main audio data, which is audio data of the music program, from the PMT of the EMD channel. Is acquired (step S103). Next, IR
D12 acquires the PID of the GUI data from the PMT of the EMD channel (step S104). Next, I
The RD 12 extracts the GUI data from the transport stream by extracting the transport packet having the PID of the GUI data, and displays the GUI screen as shown in FIG. 2 based on the GUI data, The main video data and the main audio data are extracted based on the PID of the main video data and the PID of the main audio data, and the music program is reproduced (step S10).
5) End the operation up to the display of the GUI screen.

【0134】図15は、上述のようにして表示されたG
UI画面を用いて楽曲のリスト21Bの中から任意の楽
曲を選択した場合におけるIRD12の動作を示す流れ
図である。この動作では、IRD12は、まず、選択さ
れた楽曲のSPTを、GUIデータより取得する(ステ
ップS111)。次に、IRD12は、EMDチャンネ
ルのPMTより、SPTに対応するリンケージディスク
リプタを探し、選択された楽曲のSMTのPIDを取得
する(ステップS112)。次に、IRD12は、選択
された楽曲のSMTのPIDを持つトランスポートパケ
ットを抽出することによって、選択された楽曲のSMT
を取得し、このSMTより、MPEGオーディオデータ
のPIDと音声付加情報のPIDを取得する(ステップ
S113)。次に、IRD12は、MPEGオーディオ
データのPIDに基づいてMPEGオーディオデータを
抽出し、デコードする(ステップS114)。次に、I
RD12は、音声付加情報のPIDに基づいて音声付加
情報を抽出し、この音声付加情報より楽曲の経過時間を
取得する(ステップS115)。次に、IRD12は、
選択された楽曲のデータが終了したか否かを判断する
(ステップS116)。IRD12は、選択された楽曲
のデータが終了していなければ(N)、ステップS11
4に戻り、終了したら(ステップS116;Y)、任意
の楽曲を選択した場合における動作を終了する。
FIG. 15 shows the G displayed as described above.
11 is a flowchart showing an operation of the IRD 12 when an arbitrary music piece is selected from a music list 21B using the UI screen. In this operation, the IRD 12 first obtains the SPT of the selected music piece from the GUI data (step S111). Next, the IRD 12 searches the PMT of the EMD channel for a linkage descriptor corresponding to the SPT, and acquires the SMT PID of the selected music (step S112). Next, the IRD 12 extracts the SMT of the selected song by extracting a transport packet having the PID of the SMT of the selected song.
, And the PID of the MPEG audio data and the PID of the audio additional information are obtained from the SMT (step S113). Next, the IRD 12 extracts and decodes the MPEG audio data based on the PID of the MPEG audio data (Step S114). Next, I
The RD 12 extracts the additional audio information based on the PID of the additional audio information, and acquires the elapsed time of the music from the additional audio information (step S115). Next, the IRD 12
It is determined whether or not the data of the selected music has ended (step S116). If the data of the selected music has not been completed (N), the IRD 12 proceeds to step S11.
4, when the operation is completed (step S116; Y), the operation in the case where an arbitrary music is selected is ended.

【0135】図16は、上述のようにして表示されたG
UI画面を用いて楽曲のリスト21の中から任意の楽曲
を選択し、更に歌詞表示ボタン22を押した場合におけ
る歌詞の表示に関するIRD12の動作を示す流れ図で
ある。この動作では、IRD12は、まず、GUIデー
タより、歌詞が一括して書かれているディレクトリを探
す(ステップS121)。次に、IRD12は、そのデ
ィレクトリより、選択された楽曲のSPTに基づいて、
選択された歌詞が入っているファイルを探す(ステップ
S122)。次に、IRD12は、楽曲の経過時間がサ
ブファイルヘッダ内の表示開始時刻と一致するか否かを
判断する(ステップS123)。IRD12は、楽曲の
経過時間がサブファイルヘッダ内の表示開始時刻と一致
しない場合(N)には、ステップS123を繰り返し、
一致する場合には(ステップS123;Y)は、そのサ
ブファイルヘッダに対応するデータである歌詞を、図2
におけるテキスト表示エリア21cに表示する(ステッ
プS124)。次に、IRD12は、楽曲の経過時間
が、表示中の歌詞に対応するサブファイルヘッダ内の表
示終了時刻と一致するか否かを判断する(ステップS1
25)。IRD12は、楽曲の経過時間がサブファイル
ヘッダ内の表示終了時刻と一致しない場合(N)には、
ステップS125を繰り返し、一致する場合には(ステ
ップS125;Y)は、歌詞の表示を終了する(ステッ
プS126)。次に、IRD12は、選択された楽曲の
データが終了したか否かを判断する(ステップS12
7)。IRD12は、選択された楽曲のデータが終了し
ていなければ(N)、ステップS123に戻り、終了し
たら(ステップS127;Y)、歌詞の表示に関する動
作を終了する。
FIG. 16 shows the G displayed as described above.
9 is a flowchart showing the operation of the IRD 12 relating to the display of lyrics when an arbitrary song is selected from the song list 21 using the UI screen and the lyrics display button 22 is further pressed. In this operation, first, the IRD 12 searches the GUI data for a directory in which lyrics are collectively written (step S121). Next, the IRD 12 uses the selected song from the directory based on the SPT of the selected song.
A file containing the selected lyrics is searched for (step S122). Next, the IRD 12 determines whether or not the elapsed time of the music matches the display start time in the sub-file header (step S123). If the elapsed time of the music does not match the display start time in the subfile header (N), the IRD 12 repeats step S123,
If they match (step S123; Y), the lyrics corresponding to the sub-file header are written in FIG.
Is displayed in the text display area 21c (step S124). Next, the IRD 12 determines whether or not the elapsed time of the music matches the display end time in the subfile header corresponding to the lyrics being displayed (step S1).
25). If the elapsed time of the music does not match the display end time in the sub-file header (N), the IRD 12
Step S125 is repeated, and if they match (step S125; Y), the display of the lyrics ends (step S126). Next, the IRD 12 determines whether or not the data of the selected music has ended (step S12).
7). If the data of the selected music has not been completed (N), the IRD 12 returns to step S123, and if completed (step S127; Y), ends the operation related to the display of the lyrics.

【0136】なお、選択された楽曲に対応する楽曲付随
情報ファイルが、サブファイルヘッダを持たない構造の
場合には、1つの楽曲付随情報ファイルに含まれる全て
のデータが一括して表示される。
When the music-related information file corresponding to the selected music has a structure without a sub-file header, all data included in one music-related information file are displayed collectively.

【0137】また、GUI画面において、歌詞を一括し
て表示することを指示するボタンを設け、このボタンが
押されたときには、IRD12は、楽曲付随情報ファイ
ルにサブファイルヘッダがあっても、このサブファイル
ヘッダを無視して、1つの楽曲付随情報ファイルに含ま
れる全てのデータを一括して表示するようにしてもよ
い。
Further, a button is provided on the GUI screen for instructing the lyrics to be displayed collectively, and when this button is pressed, the IRD 12 sets the sub-file header even if the sub-file header is included in the music accompanying information file. All data included in one music accompanying information file may be displayed collectively, ignoring the file header.

【0138】以上説明したように、本実施の形態によれ
ば、ダウンロード可能な楽曲に付随する歌詞データ等の
付随情報とその提示のための時間情報(表示開始時刻お
よび表示終了時刻)とを対応づけたデータ構造の楽曲付
随情報ファイルを生成し、この楽曲付随情報ファイル
を、GUIデータの一部として、地上局1から受信設備
3へ伝送するようにしたので、ダウンロード可能な楽曲
のうち、選択した楽曲を提示する際に、その楽曲の提示
に同期させて、歌詞データ等の付随情報を表示させるこ
とが可能となる。これにより、楽曲の提示中、実際に歌
詞が使われるタイミングで、その歌詞の表示を行うこと
が可能となる。また、本実施の形態によれば、歌詞等の
テキスト情報だけでなく、アニメーションやプロモーシ
ョン画像等を、楽曲の提示と同期して提示することが可
能となり、例えば、楽曲に同期した紙芝居的なサービス
が可能となる。
As described above, according to the present embodiment, the accompanying information such as the lyrics data attached to the music that can be downloaded and the time information (display start time and display end time) for presentation thereof are associated with each other. Since the music accompanying information file having the attached data structure is generated, and the music accompanying information file is transmitted from the ground station 1 to the receiving equipment 3 as a part of the GUI data, the user can select one of the downloadable music pieces. When presenting the music piece, the accompanying information such as lyrics data can be displayed in synchronization with the presentation of the music piece. This makes it possible to display the lyrics at the timing when the lyrics are actually used during the presentation of the music. Further, according to the present embodiment, it is possible to present not only text information such as lyrics, but also animations and promotion images in synchronization with the presentation of music, for example, a picture-story service synchronized with music. Becomes possible.

【0139】また、本実施の形態によれば、歌詞データ
等の付随情報を、楽曲のデータに対して独立したデータ
として伝送するようにしたので、付随情報を、従来のよ
うな予め決められた態様だけではなく、種々の態様で提
示することが可能となり、柔軟性に優れたサービスを実
現することができる。例えば、通常は楽曲に同期して一
部ずつ順次表示される歌詞を一括して表示させたりする
ことが可能となる。また、例えば、1つの楽曲のデータ
に対して、2以上の歌詞データを付随させて、いずれか
の歌詞データを選択的に提示することも可能になる。こ
れにより、ある言語(例えば英語)の歌詞がオリジナル
として使用されている場合、歌詞データの1つを、オリ
ジナルの言語の歌詞のデータとし、歌詞データの他の1
つを、他の言語(例えば日本語)の歌詞のデータとし
て、この2種類の歌詞データを1つの楽曲のデータに対
して付随させて伝送し、IRD12において、いずれか
の歌詞データを選択することで、いずれかの言語の歌詞
を選択的に表示させながら、楽曲を提示させることも可
能となる。
Further, according to the present embodiment, the accompanying information such as the lyrics data is transmitted as data independent of the music data, so that the accompanying information is determined in a conventional manner. Not only the mode but also various modes can be presented, and a highly flexible service can be realized. For example, it is possible to collectively display lyrics that are normally displayed part by part in synchronization with a song. Also, for example, it is possible to selectively present any one of the lyrics data by attaching two or more lyrics data to the data of one music piece. Thereby, when the lyrics of a certain language (for example, English) are used as the original, one of the lyrics data is used as the lyrics data of the original language, and the other one of the lyrics data is used.
And transmitting the two types of lyrics data as data of lyrics in another language (for example, Japanese) in association with the data of one song, and selecting one of the lyrics data in the IRD 12. Thus, it is possible to present music while selectively displaying lyrics in any language.

【0140】また、付随情報は、楽曲のデータと共に、
ストレージデバイス13Cに蓄積することが可能であ
る。この場合、付随情報と共にその提示のための時間情
報もストレージデバイス13Cに蓄積される。そのた
め、ストレージデバイス13Cより楽曲のデータを再生
する際に、付随情報とその提示のための時間情報を用い
て、楽曲の提示に同期させて付随情報を表示させること
も可能となる。
[0140] The accompanying information includes music data,
It can be stored in the storage device 13C. In this case, the time information for the presentation is stored in the storage device 13C together with the accompanying information. Therefore, when music data is reproduced from the storage device 13C, it is possible to display the accompanying information in synchronization with the presentation of the music using the accompanying information and the time information for the presentation.

【0141】また、本実施の形態において、付随情報の
提示のための時間情報が、時、分、秒で表され、MPE
Gシステムにおける27MHzのクロックではなく、
時、分、秒を基準して、楽曲の提示に同期するように付
随情報を表示するようにしたので、MPEGシステム以
外の機器や人間にとって、付随情報の扱いが容易にな
る。また、楽曲の情報と付随情報を、独自の基準時間を
持つ機器やシステムで使用する場合に、付随情報の提示
のための時間情報を、その独自の基準時間に適合した情
報に容易に変換することが可能となる。
In the present embodiment, the time information for presenting the accompanying information is expressed in hours, minutes, and seconds,
Instead of 27MHz clock in G system,
Since the accompanying information is displayed on the basis of hours, minutes, and seconds so as to be synchronized with the presentation of the music, the handling of the accompanying information becomes easy for devices and persons other than the MPEG system. In addition, when music information and accompanying information are used in a device or system having a unique reference time, the time information for presenting the accompanying information is easily converted to information suitable for the unique reference time. It becomes possible.

【0142】なお、本発明は、上記実施の形態に限定さ
れない。例えば、実施の形態では、楽曲のデータと音声
付加情報と付随情報とを、それぞれ別個のパケットで伝
送するようにしたが、これらのうちの2つ以上を、同じ
パケットで伝送するようにしてもよい。
[0142] The present invention is not limited to the above embodiment. For example, in the embodiment, the music data, the voice additional information, and the accompanying information are transmitted in separate packets. However, two or more of them may be transmitted in the same packet. Good.

【0143】また、複数の種類の付随情報、例えばプロ
モーション画像と歌詞を、合成して表示するようにして
もよい。
A plurality of types of accompanying information, for example, a promotion image and lyrics may be combined and displayed.

【0144】また、本発明は、地上波放送により配信さ
れる楽曲をダウンロードするシステム、ケーブル放送に
より配信される楽曲をダウンロードするシステム、およ
びインターネットを介して楽曲をダウンロードするシス
テムにも適用できる。
The present invention can also be applied to a system for downloading music distributed by terrestrial broadcasting, a system for downloading music distributed by cable broadcasting, and a system for downloading music via the Internet.

【0145】[0145]

【発明の効果】以上説明したように、本発明のデータ送
信装置または本発明のデータ送信方法によれば、楽曲の
データと、楽曲に付随して提示される付随情報とこの付
随情報を楽曲の提示に同期して提示するための時間情報
とを対応づけたデータ構造の付随データとを生成し、こ
れらのデータを送信するようにしたので、楽曲のデータ
の配信が可能になると共に、楽曲に付随する情報を、楽
曲と同期して提示可能となり、且つ柔軟に利用可能とな
るという効果を奏する。
As described above, according to the data transmitting apparatus or the data transmitting method of the present invention, the data of the music, the accompanying information presented along with the music, and the accompanying information of the music are combined. Synchronous with the presentation, time data for presentation and associated data of a data structure that is associated with the data are generated and transmitted, so that music data can be distributed, and The accompanying information can be presented in synchronization with the music and can be used flexibly.

【0146】また、本発明のデータ受信装置または本発
明のデータ受信方法によれば、楽曲のデータと、楽曲に
付随して提示される付随情報とこの付随情報を楽曲の提
示に同期して提示するための時間情報とを対応づけたデ
ータ構造の付随データとを受信し、受信した楽曲のデー
タに基づいて楽曲の提示のための処理を行うと共に、受
信した付随データ中の付随情報を楽曲の提示に同期して
提示するために、付随データ中の時間情報に基づいて付
随データ中の付随情報を提示するための処理を行うよう
にしたので、楽曲のデータの配信が可能になると共に、
楽曲に付随する情報を、楽曲と同期して提示可能とな
り、且つ柔軟に利用可能となるという効果を奏する。
Further, according to the data receiving apparatus of the present invention or the data receiving method of the present invention, the data of the music, the accompanying information presented along with the music, and the accompanying information are presented in synchronization with the presentation of the music. And associated data of a data structure in which time information for performing the association is received, a process for presenting the music is performed based on the data of the received music, and the associated information in the received accompanying data is In order to present in synchronization with the presentation, processing for presenting the accompanying information in the accompanying data is performed based on the time information in the accompanying data, so that music data can be distributed,
The information accompanying the music can be presented in synchronization with the music and can be used flexibly.

【0147】また、本発明のデータ送受信システムまた
は本発明のデータ送受信方法によれば、楽曲のデータ
と、楽曲に付随して提示される付随情報とこの付随情報
を楽曲の提示に同期して提示するための時間情報とを対
応づけたデータ構造の付随データとを生成し、これらの
データを送信し、楽曲のデータと付随データとを受信
し、受信した楽曲のデータに基づいて楽曲の提示のため
の処理を行うと共に、受信した付随データ中の付随情報
を楽曲の提示に同期して提示するために、付随データ中
の時間情報に基づいて付随データ中の付随情報を提示す
るための処理を行うようにしたので、楽曲のデータの配
信が可能になると共に、楽曲に付随する情報を、楽曲と
同期して提示可能となり、且つ柔軟に利用可能となると
いう効果を奏する。
Further, according to the data transmission / reception system of the present invention or the data transmission / reception method of the present invention, the music data, the accompanying information presented along with the music, and the accompanying information are presented in synchronization with the presentation of the music. Associated data of a data structure that is associated with time information for transmitting, transmitting these data, receiving the data of the music and the associated data, and presenting the music based on the data of the received music. Process for presenting the accompanying information in the accompanying data based on the time information in the accompanying data in order to present the accompanying information in the received accompanying data in synchronization with the presentation of the music. Since this is performed, the data of the music can be distributed, and the information accompanying the music can be presented in synchronization with the music and can be used flexibly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用されるシステムの全体構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the overall configuration of a system to which the present invention is applied.

【図2】図1に示したシステムにおけるテレビジョン受
像機に表示される画面の一例を示す説明図である。
FIG. 2 is an explanatory diagram showing an example of a screen displayed on a television receiver in the system shown in FIG.

【図3】図1に示したシステムにおける地上局の構成の
一例を示すブロック図である。
FIG. 3 is a block diagram showing an example of a configuration of a ground station in the system shown in FIG.

【図4】図1に示したシステムにおいて送信されるデー
タの一例の構造を示す説明図である。
FIG. 4 is an explanatory diagram showing a structure of an example of data transmitted in the system shown in FIG. 1;

【図5】図1に示したシステムにおける各種のデータの
伝送の方法と再構築の方法を示す説明図である。
FIG. 5 is an explanatory diagram showing a method of transmitting various kinds of data and a method of restructuring in the system shown in FIG. 1;

【図6】図1に示したシステムにおけるIRDと種々の
ストレージデバイスとの関係を示す説明図である。
FIG. 6 is an explanatory diagram showing a relationship between an IRD and various storage devices in the system shown in FIG. 1;

【図7】図1に示したシステムにおけるIRDの構成の
一例を示すブロック図である。
FIG. 7 is a block diagram showing an example of an IRD configuration in the system shown in FIG. 1;

【図8】図6におけるIEEE1394MDの構成の一
例を示すブロック図である。
FIG. 8 is a block diagram showing an example of the configuration of IEEE1394MD in FIG. 6;

【図9】図6におけるIEEE1394MDの記録フォ
ーマットを示す図である。
FIG. 9 is a diagram showing a recording format of IEEE1394MD in FIG. 6;

【図10】本発明の一実施の形態における付随データの
データ構造の一例を示したものである。
FIG. 10 shows an example of a data structure of accompanying data according to an embodiment of the present invention.

【図11】本発明の一実施の形態において楽曲に同期し
て付随情報を提示するために必要となる時間情報につい
て説明するための説明図である。
FIG. 11 is an explanatory diagram for describing time information necessary for presenting accompanying information in synchronization with music in one embodiment of the present invention.

【図12】本発明の一実施の形態において選択された楽
曲と音声付加情報と付随情報との対応をとるための仕組
みを説明するための説明図である。
FIG. 12 is an explanatory diagram for explaining a mechanism for associating selected music, additional sound information, and accompanying information in one embodiment of the present invention.

【図13】本発明の一実施の形態において付随情報を楽
曲に同期して提示するための回路構成を示すブロック図
である。
FIG. 13 is a block diagram showing a circuit configuration for presenting incidental information in synchronization with music in one embodiment of the present invention.

【図14】本発明の一実施の形態において図2に示した
ようなGUI画面が表示されるまでのIRDの動作を示
す流れ図である。
FIG. 14 is a flowchart showing an operation of the IRD until a GUI screen as shown in FIG. 2 is displayed in one embodiment of the present invention.

【図15】本発明の一実施の形態においてGUI画面を
用いて任意の楽曲を選択した場合におけるIRDの動作
を示す流れ図である。
FIG. 15 is a flowchart showing an operation of an IRD when an arbitrary music piece is selected using a GUI screen in one embodiment of the present invention.

【図16】本発明の一実施の形態における歌詞の表示に
関するIRDの動作を示す流れ図である。
FIG. 16 is a flowchart showing the operation of the IRD relating to the display of lyrics in one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…地上局、3…受信設備、12…IRD、13…スト
レージデバイス、13C…IEEE1394MD、14
…テレビジョン受像機。
DESCRIPTION OF SYMBOLS 1 ... Ground station, 3 ... Receiving equipment, 12 ... IRD, 13 ... Storage device, 13C ... IEEE1394MD, 14
... Television receiver.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/081 Fターム(参考) 5C063 AA20 AB03 AB07 AB11 AC02 AC05 AC10 5D108 BC12 BD02 BF20 5K101 KK18 LL11 MM07 NN18 NN21──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/081 F term (Reference) 5C063 AA20 AB03 AB07 AB11 AC02 AC05 AC10 5D108 BC12 BD02 BF20 5K101 KK18 LL11 MM07 NN18 NN21

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 楽曲のデータと、楽曲に付随して提示さ
れる付随情報とこの付随情報を楽曲の提示に同期して提
示するための時間情報とを対応づけたデータ構造の付随
データとを生成するデータ生成手段と、 このデータ生成手段によって生成されたデータを送信す
る送信手段とを備えたことを特徴とするデータ送信装
置。
The present invention relates to music data, and accompanying data of a data structure that associates accompanying information presented along with a song and time information for presenting the accompanying information in synchronization with the presentation of the song. A data transmission device comprising: a data generation unit for generating; and a transmission unit for transmitting data generated by the data generation unit.
【請求項2】 前記データ生成手段は、更に、楽曲の演
奏開始時からの経過時間を表すデータを生成することを
特徴とする請求項1記載のデータ送信装置。
2. The data transmitting apparatus according to claim 1, wherein said data generating means further generates data representing an elapsed time from the start of playing the music.
【請求項3】 楽曲のデータと、楽曲に付随して提示さ
れる付随情報とこの付随情報を楽曲の提示に同期して提
示するための時間情報とを対応づけたデータ構造の付随
データとを生成し、 これらの生成されたデータを送信することを特徴とする
データ送信方法。
3. A music data, and accompanying data of a data structure in which the accompanying information presented along with the music and the time information for presenting the accompanying information in synchronization with the presentation of the music are associated with each other. Generating a data and transmitting the generated data.
【請求項4】 更に、楽曲の演奏開始時からの経過時間
を表すデータを生成し、送信することを特徴とする請求
項3記載のデータ送信方法。
4. The data transmission method according to claim 3, further comprising generating and transmitting data representing an elapsed time from the start of playing the music.
【請求項5】 楽曲のデータと、楽曲に付随して提示さ
れる付随情報とこの付随情報を楽曲の提示に同期して提
示するための時間情報とを対応づけたデータ構造の付随
データとを受信する受信手段と、 この受信手段によって受信した楽曲のデータに基づいて
楽曲の提示のための処理を行うと共に、前記受信手段に
よって受信した付随データ中の付随情報を楽曲の提示に
同期して提示するために、付随データ中の時間情報に基
づいて付随データ中の付随情報を提示するための処理を
行う提示処理手段とを備えたことを特徴とするデータ受
信装置。
5. The music data, the accompanying information presented along with the music, and the accompanying data having a data structure in which the accompanying information is associated with time information for presenting the information in synchronization with the presentation of the music. Receiving means for receiving, performing processing for presenting music based on the data of the music received by the receiving means, and presenting the accompanying information in the accompanying data received by the receiving means in synchronization with the presentation of the music And a presentation processing means for performing a process for presenting the accompanying information in the accompanying data based on the time information in the accompanying data.
【請求項6】 前記データ受信手段は、更に、楽曲の演
奏開始時からの経過時間を表すデータを受信し、 前記提示処理手段は、前記データ受信手段によって受信
した経過時間を表すデータと付随データ中の時間情報に
基づいて付随データ中の付随情報を提示するための処理
を行うことを特徴とする請求項5記載のデータ受信装
置。
6. The data receiving means further receives data representing an elapsed time from the start of playing the music, and the presentation processing means comprises data representing the elapsed time received by the data receiving means and accompanying data. 6. The data receiving apparatus according to claim 5, wherein a process for presenting the accompanying information in the accompanying data is performed based on the time information in the data.
【請求項7】 楽曲のデータと、楽曲に付随して提示さ
れる付随情報とこの付随情報を楽曲の提示に同期して提
示するための時間情報とを対応づけたデータ構造の付随
データとを受信し、 受信した楽曲のデータに基づいて楽曲の提示のための処
理を行うと共に、受信した付随データ中の付随情報を楽
曲の提示に同期して提示するために、付随データ中の時
間情報に基づいて付随データ中の付随情報を提示するた
めの処理を行うことを特徴とするデータ受信方法。
7. The music data, the accompanying information presented along with the music, and the accompanying data having a data structure in which the accompanying information is associated with time information for presenting the accompanying information in synchronization with the presentation of the music. Receives and performs the process for presenting the music based on the received music data, and also presents the accompanying information in the received accompanying data in synchronization with the presentation of the music. A data receiving method comprising: performing a process for presenting accompanying information in accompanying data based on the data.
【請求項8】 更に、楽曲の演奏開始時からの経過時間
を表すデータを受信し、 受信した経過時間を表すデータと付随データ中の時間情
報に基づいて付随データ中の付随情報を提示するための
処理を行うことを特徴とする請求項7記載のデータ受信
方法。
8. A method for receiving data representing an elapsed time from the start of playing a music piece and presenting accompanying information in the accompanying data based on the data representing the received elapsed time and time information in the accompanying data. 8. The data receiving method according to claim 7, wherein the following processing is performed.
【請求項9】 楽曲のデータと、楽曲に付随して提示さ
れる付随情報とこの付随情報を楽曲の提示に同期して提
示するための時間情報とを対応づけたデータ構造の付随
データとを生成するデータ生成手段と、このデータ生成
手段によって生成されたデータを送信する送信手段とを
有するデータ送信装置と、 前記データ送信装置より送信される楽曲のデータと付随
データとを受信する受信手段と、この受信手段によって
受信した楽曲のデータに基づいて楽曲の提示のための処
理を行うと共に、前記受信手段によって受信した付随デ
ータ中の付随情報を楽曲の提示に同期して提示するため
に、付随データ中の時間情報に基づいて付随データ中の
付随情報を提示するための処理を行う提示処理手段とを
有するデータ受信装置とを備えたことを特徴とするデー
タ送受信システム。
9. The music data, the accompanying information presented along with the music, and the accompanying data having a data structure in which the accompanying information is associated with time information for presenting the accompanying information in synchronization with the presentation of the music. A data transmitting device having a data generating device for generating, a transmitting device for transmitting data generated by the data generating device, a receiving device for receiving data of music and accompanying data transmitted from the data transmitting device; Performing a process for presenting the music based on the music data received by the receiving means, and presenting the accompanying information in the accompanying data received by the receiving means in synchronization with the presentation of the music. A data receiving device having presentation processing means for performing a process for presenting the accompanying information in the accompanying data based on the time information in the data. That data transmission and reception system.
【請求項10】 前記データ生成手段は、更に、楽曲の
演奏開始時からの経過時間を表すデータを生成し、 前記データ受信手段は、更に、楽曲の演奏開始時からの
経過時間を表すデータを受信し、 前記提示処理手段は、前記データ受信手段によって受信
した経過時間を表すデータと付随データ中の時間情報に
基づいて付随データ中の付随情報を提示するための処理
を行うことを特徴とする請求項9記載のデータ送受信シ
ステム。
10. The data generating means further generates data indicating an elapsed time from the start of playing the music, and the data receiving means further generates data indicating the elapsed time from the start of playing the music. Receiving, wherein the presentation processing means performs a process for presenting the accompanying information in the accompanying data based on the data indicating the elapsed time received by the data receiving means and the time information in the accompanying data. The data transmission / reception system according to claim 9.
【請求項11】 楽曲のデータと、楽曲に付随して提示
される付随情報とこの付随情報を楽曲の提示に同期して
提示するための時間情報とを対応づけたデータ構造の付
随データとを生成し、 これらの生成されたデータを送信し、 送信される楽曲のデータと付随データとを受信し、 受信した楽曲のデータに基づいて楽曲の提示のための処
理を行うと共に、受信した付随データ中の付随情報を楽
曲の提示に同期して提示するために、付随データ中の時
間情報に基づいて付随データ中の付随情報を提示するた
めの処理を行うことを特徴とするデータ送受信方法。
11. Data of music and associated data of a data structure in which associated information presented along with the music and time information for presenting the associated information in synchronization with the presentation of the music are associated with each other. Generating, transmitting the generated data, receiving the transmitted music data and the accompanying data, performing a process for presenting the music based on the received music data, and receiving the accompanying data. A data transmission / reception method, characterized by performing a process for presenting the accompanying information in the accompanying data based on the time information in the accompanying data in order to present the accompanying information therein in synchronization with the presentation of the music.
【請求項12】 更に、楽曲の演奏開始時からの経過時
間を表すデータを生成して、送信し、 楽曲の演奏開始時からの経過時間を表すデータを受信
し、受信した経過時間を表すデータと付随データ中の時
間情報に基づいて付随データ中の付随情報を提示するた
めの処理を行うことを特徴とする請求項11記載のデー
タ送受信方法。
12. A method for generating and transmitting data representing an elapsed time from the start of a music performance, receiving data representing an elapsed time from the start of a music performance, and receiving the data representing the received elapsed time. 12. The data transmission / reception method according to claim 11, wherein a process for presenting the accompanying information in the accompanying data is performed based on the time information in the accompanying data.
JP10204004A 1998-07-17 1998-07-17 Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data Pending JP2000036795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10204004A JP2000036795A (en) 1998-07-17 1998-07-17 Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10204004A JP2000036795A (en) 1998-07-17 1998-07-17 Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data

Publications (1)

Publication Number Publication Date
JP2000036795A true JP2000036795A (en) 2000-02-02

Family

ID=16483188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10204004A Pending JP2000036795A (en) 1998-07-17 1998-07-17 Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data

Country Status (1)

Country Link
JP (1) JP2000036795A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244654A (en) * 2001-02-14 2002-08-30 Tu-Ka Cellular Tokyo Inc Device and system for distribution and play device
JP2002258874A (en) * 2001-03-01 2002-09-11 Alpine Electronics Inc Method and system for trial listening to music, information treminal and music retrieval server
JP2002311962A (en) * 2001-04-19 2002-10-25 Sony Corp Device and method for information processing, information processing system, recording medium and program
JP2003108153A (en) * 2001-09-28 2003-04-11 V-Sync Co Ltd System, method, and program for music audition
JP2006195002A (en) * 2005-01-11 2006-07-27 Xing Inc Content distribution system
KR100613859B1 (en) 2004-06-07 2006-08-21 (주)잉카엔트웍스 Apparatus and method for editing and providing multimedia data for portable device
JP2007324757A (en) * 2006-05-30 2007-12-13 Softbank Mobile Corp Mobile communication terminal, server, and method of providing content
JP2009506706A (en) * 2005-08-30 2009-02-12 エルジー エレクトロニクス インコーポレイティド Audio signal decoding method and apparatus
US7788107B2 (en) 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
US7987097B2 (en) 2005-08-30 2011-07-26 Lg Electronics Method for decoding an audio signal
KR101301039B1 (en) 2006-10-19 2013-08-28 엘지전자 주식회사 Method for providing contents data using a network
US8832746B2 (en) 2000-04-12 2014-09-09 Lg Electronics Inc. Apparatus and method for providing and obtaining product information through a broadcast signal
US9083854B2 (en) 2000-04-12 2015-07-14 Lg Electronics Inc. Method and video device for accessing information

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832746B2 (en) 2000-04-12 2014-09-09 Lg Electronics Inc. Apparatus and method for providing and obtaining product information through a broadcast signal
US9749697B2 (en) 2000-04-12 2017-08-29 Lg Electronics Inc. Method and video device for accessing information
US9083854B2 (en) 2000-04-12 2015-07-14 Lg Electronics Inc. Method and video device for accessing information
JP2002244654A (en) * 2001-02-14 2002-08-30 Tu-Ka Cellular Tokyo Inc Device and system for distribution and play device
JP2002258874A (en) * 2001-03-01 2002-09-11 Alpine Electronics Inc Method and system for trial listening to music, information treminal and music retrieval server
JP2002311962A (en) * 2001-04-19 2002-10-25 Sony Corp Device and method for information processing, information processing system, recording medium and program
JP2003108153A (en) * 2001-09-28 2003-04-11 V-Sync Co Ltd System, method, and program for music audition
KR100613859B1 (en) 2004-06-07 2006-08-21 (주)잉카엔트웍스 Apparatus and method for editing and providing multimedia data for portable device
JP2006195002A (en) * 2005-01-11 2006-07-27 Xing Inc Content distribution system
US7788107B2 (en) 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
JP4859925B2 (en) * 2005-08-30 2012-01-25 エルジー エレクトロニクス インコーポレイティド Audio signal decoding method and apparatus
US8577483B2 (en) 2005-08-30 2013-11-05 Lg Electronics, Inc. Method for decoding an audio signal
US7987097B2 (en) 2005-08-30 2011-07-26 Lg Electronics Method for decoding an audio signal
JP2009506706A (en) * 2005-08-30 2009-02-12 エルジー エレクトロニクス インコーポレイティド Audio signal decoding method and apparatus
JP2007324757A (en) * 2006-05-30 2007-12-13 Softbank Mobile Corp Mobile communication terminal, server, and method of providing content
KR101301039B1 (en) 2006-10-19 2013-08-28 엘지전자 주식회사 Method for providing contents data using a network

Similar Documents

Publication Publication Date Title
US6490728B1 (en) Channel information transmitting method and receiving apparatus
KR100617890B1 (en) Apparatus and method for transmitting data, apparatus and method for receiving data, and system and method for transmitting and receiving data
US6668158B1 (en) Control method, control apparatus, data receiving and recording method, data receiver and receiving method
JP4577430B2 (en) Information processing apparatus and information processing method
KR100568890B1 (en) Transmitter and transmitting Method, Information Editor and editing Method, Receiver and receiving Method, Information Storage and storing Method, and Broadcasting System
JP4441945B2 (en) Control method and control apparatus
JP5045535B2 (en) Receiving apparatus and receiving method
JP2000036795A (en) Device and method for transmitting data, device and method for receiving data and system, and method for transmitting/receiving data
WO2000028737A1 (en) Receiving terminal, method for controlling the same, and recorded medium on which program is recorded
JP3915204B2 (en) Transmission device and method, transmission control device and method, reception device and method, information storage device and method, and broadcasting system
JP2001024995A (en) Broadcasting device, broadcasting method and receiver
JP4016160B2 (en) Data receiving / recording method and data receiving apparatus
JP3991457B2 (en) Data transmission method, data transmission apparatus and reception apparatus
JPH11163808A (en) Transmitter, receiver and information storage system
JPH11163811A (en) Receiver and information storage system
JP4366742B2 (en) Receiver
JP4499205B2 (en) Data receiving method, data receiving apparatus and program
JP4016159B2 (en) Data receiving apparatus and data receiving method
JP2000032415A (en) Receiver
JP4108786B2 (en) A method for receiving and reproducing digital multi-channel broadcast music programs on a karaoke device and displaying lyrics subtitles that change color in sync with the music
JP2009004082A (en) Information processing device, information processing method and program
JPH11252173A (en) Data transmission method
JP2000032362A (en) Device and method for transmitting information