JP2003050591A - Musical performance output device - Google Patents

Musical performance output device

Info

Publication number
JP2003050591A
JP2003050591A JP2002131836A JP2002131836A JP2003050591A JP 2003050591 A JP2003050591 A JP 2003050591A JP 2002131836 A JP2002131836 A JP 2002131836A JP 2002131836 A JP2002131836 A JP 2002131836A JP 2003050591 A JP2003050591 A JP 2003050591A
Authority
JP
Japan
Prior art keywords
musical
data
song
karaoke
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002131836A
Other languages
Japanese (ja)
Inventor
Masashi Tashiro
正志 田代
Yuji Senba
祐二 仙場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002131836A priority Critical patent/JP2003050591A/en
Publication of JP2003050591A publication Critical patent/JP2003050591A/en
Pending legal-status Critical Current

Links

Landscapes

  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize transition to a musical sound synthesis means at a low cost while effectively using an existing musical sound reproduction means. SOLUTION: This musical performance output device comprises a musical sound reproduction means 10 for storing audio signals of a program and reproducing and outputting audio signals of specified pieces on the program, musical sound synthesis means 22, 23 for storing event information on the program and synthesizing and outputting musical sound at sound sources according to the event information on the specified pieces on the program, and a commander part 21 for accepting an instruction for selecting a program. Based on the instruction for selecting the program, the commander part 21 selectively controls whether to reproduce the program by the musical sound reproduction means 10 or to synthesize the musical sound of the program by the musical sound synthesis means 22, 23.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、楽音再生手段と楽
音合成手段とを含む演奏出力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance output device including a musical sound reproducing means and a musical sound synthesizing means.

【0002】[0002]

【従来の技術】指定された演奏曲を再生し、マイクから
入力される音声を混合して出力する機能を有したカラオ
ケ装置は、スナック等の飲食店に限らず、カラオケボッ
クス、さらにバス等の移動体にも普及している。通常の
カラオケ装置は、演奏情報や画像情報を記憶した記憶系
と、演奏曲を再生し、これに歌い手の音声を混合する音
響系と、演奏曲に合わせて背景画像や歌詞画像を表示す
る映像系と、これら各系を制御する制御系とを全て備え
る楽音再生型が多い。これに対し、最近では、必要とす
る曲データをホスト局から通信回線を介して取り込む楽
音合成型カラオケ装置が出現している。この楽音合成型
カラオケ装置は、曲データに基づき楽音を生成する音源
を内蔵する。
2. Description of the Related Art A karaoke device having a function of reproducing a designated musical piece and mixing and outputting voices inputted from a microphone is not limited to restaurants such as snacks, but also karaoke boxes and buses. It is also popular in mobile units. An ordinary karaoke device has a storage system that stores performance information and image information, an acoustic system that reproduces a performance song and mixes the voice of a singer with it, and a video image that displays a background image and lyrics image according to the performance song. There are many types of musical sound reproduction types that include a system and a control system that controls each of these systems. On the other hand, recently, a musical tone synthesizing type karaoke apparatus has appeared in which necessary music data is taken in from a host station via a communication line. This musical sound synthesizing type karaoke apparatus has a built-in sound source for generating musical sounds based on music data.

【0003】楽音再生型のカラオケ装置は、記憶系に格
納されている演奏曲以外のリクエストに対して応えるこ
とはできないが、楽音合成型のカラオケ装置であれば、
ホスト局に格納されている多くの曲データの中から歌い
手のリクエストに応じた曲データを供給してもらうこと
ができるので、極端な例では、カラオケ装置側に1曲も
曲データがなくとも、歌い手からの全てのリクエストに
応えることが可能になる。完全楽音合成型カラオケ装置
は、その様な構成であるが、リクエストの都度ホスト局
にアクセスする通信料金と通信時間を削減するため、カ
ラオケ装置側に記憶装置を設け、ここにホスト局から取
り込んだ曲データを格納して再利用する半楽音合成型も
ある。
The musical tone reproducing type karaoke device cannot respond to requests other than the musical composition stored in the storage system, but if the musical tone synthesizing type karaoke device is used.
Since it is possible to have the song data supplied in response to the singer's request from many song data stored in the host station, in an extreme example, even if there is no song data on the karaoke device side, It will be possible to meet all requests from the singer. The complete tone synthesizing karaoke device has such a configuration, but in order to reduce the communication fee and communication time for accessing the host station each time a request is made, a storage device is provided on the karaoke device side, and it is imported from the host station here There is also a semi-tone synthesis type that stores song data and reuses it.

【0004】[0004]

【発明が解決しようとする課題】いずれのケースにして
も、新たに楽音合成型カラオケ装置を導入するに際し、
既存の楽音再生型カラオケ装置の使用を完全に止めてし
まうことは、楽音合成型を供給する側、また設置する側
の両者に取って経済的側面から不利である。本発明は、
この様な点を改善し、既存の楽音再生手段を有効利用し
ながら、楽音合成手段への移行を安価にて実現する演奏
出力装置を提供することを目的とする。
In any case, when a new musical tone synthesizing karaoke device is introduced,
Completely stopping the use of the existing musical tone reproduction type karaoke apparatus is economically disadvantageous for both the side for supplying the musical tone synthesizing type and the side for installing the musical tone synthesizing type. The present invention is
It is an object of the present invention to provide a performance output device which improves such points and realizes the transition to the musical sound synthesizing means at low cost while effectively utilizing the existing musical sound reproducing means.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
本発明では、演奏曲のオーディオ信号を記憶し指定され
た演奏曲のオーディオ信号を再生し出力する楽音再生手
段と、演奏曲のイベント情報を記憶し指定された演奏曲
のイベント情報に従って音源で楽音を合成し出力する楽
音合成手段と、演奏曲の選曲指示を受け付けるコマンダ
部とを備え、前記コマンダ部は、前記受け付けた選曲指
示をもとに、前記楽音再生手段で演奏曲の再生をする
か、前記楽音合成手段で演奏曲の楽音を合成するかを選
択制御することを特徴とする。
In order to achieve the above object, according to the present invention, a musical tone reproducing means for storing an audio signal of a musical piece to be played and reproducing and outputting an audio signal of the designated musical piece, and event information of the musical piece. And a commander unit for accepting a music selection instruction of the performance music, and a commander unit for accepting a music selection instruction of the performance music, and the commander unit also receives the accepted music selection instruction. In addition, it is characterized in that selection control is performed as to whether the musical tone reproducing means reproduces the musical piece to be played or the musical tone synthesizing means synthesizes the musical sound of the musical piece to be played.

【0006】本発明の1つの実施形態においては、前記
コマンダ部が、前記受け付けた選曲指示に対応する演奏
曲が前記楽音再生手段に記憶されている場合には、前記
楽音再生手段により当該演奏曲の再生を行わせ、前記受
け付けた選曲指示に対応する演奏曲が前記楽音再生手段
に記憶されておらず且つ前記楽音合成手段に記憶されて
いる場合には、前記楽音合成手段により当該演奏曲の合
成を行わせるものである。
In one embodiment of the present invention, in the case where the performance sound corresponding to the received music selection instruction is stored in the musical sound reproducing means, the commander section causes the musical sound reproducing means to play the musical composition. When the musical composition corresponding to the received music selection instruction is not stored in the musical sound reproducing means and is stored in the musical sound synthesizing means, the musical sound synthesizing means It is the one for synthesizing.

【0007】[0007]

【作用】本発明によれば、楽音再生手段と楽音合成手段
とを併用し、いずれか一方を選択制御する。これにより
曲指定に際し、楽音再生手段を優先使用する制御が可能
になる。そして、楽音合成手段については、楽音再生手
段にない曲を演奏する場合に限り使用するようにする。
このときも、楽音合成型に曲データ蓄積用の記憶装置が
あれば、その記憶装置内のデータを優先使用し、できる
だけホスト局へのアクセスを回避して通信費用と通信時
間を削減する。
According to the present invention, the musical sound reproducing means and the musical sound synthesizing means are used together, and either one is selectively controlled. This enables control to preferentially use the musical sound reproduction means when designating a music piece. The musical tone synthesizing means is used only when playing a piece of music which the musical tone reproducing means does not have.
Also at this time, if there is a musical tone synthesis type storage device for storing music data, the data in the storage device is preferentially used, access to the host station is avoided as much as possible, and communication cost and communication time are reduced.

【0008】[0008]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は、本発明に係る総合カラオケシステム全体
の外観図である。この図において、既存の楽音再生型カ
ラオケ装置10は、LDチェンジャシステム11、モニ
タ(TV)12、ミキシングアンプ13、マイク14、
スピーカ15を含んで構成される。本例のカラオケ制御
装置20は音源ユニットを内蔵した楽音合成対応型であ
り、モニタ12およびミキシングアンプ13と組み合わ
せることで楽音合成型カラオケ装置を構成している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an external view of the entire integrated karaoke system according to the present invention. In this figure, an existing tone reproduction karaoke apparatus 10 includes an LD changer system 11, a monitor (TV) 12, a mixing amplifier 13, a microphone 14,
The speaker 15 is included. The karaoke control device 20 of the present example is a tone synthesis synthesizing type having a built-in sound source unit, and is combined with the monitor 12 and the mixing amplifier 13 to form a tone synthesis karaoke device.

【0009】このカラオケ制御装置20は統合型システ
ムコマンダと呼ばれ、これを楽音再生型カラオケ装置1
0に対し一部結合することにより、楽音合成/楽音再生
を含む全システムを統合して制御可能になる。30はカ
ラオケ制御装置20に対し通信回線40(例えば、高速
なISDN回線)を通して、要求された曲データを供給
するホスト局である。50は本システムに対し、演奏曲
指定等の指示を与えるリモコン(リモートコントロー
ラ)である。
This karaoke control device 20 is called an integrated system commander, and it is a musical sound reproduction type karaoke device 1
By partially connecting to 0, it becomes possible to integrate and control all systems including tone synthesis / tone reproduction. Reference numeral 30 is a host station for supplying the requested song data to the karaoke controller 20 through a communication line 40 (for example, a high-speed ISDN line). Reference numeral 50 denotes a remote controller (remote controller) for giving instructions such as designation of performance music to the system.

【0010】楽音再生型カラオケ装置10は自己完結型
のシステムであり、LDチェンジャシステム11内に
は、演奏曲のオーディオ信号とその背景画像および歌詞
画像を多数格納した記憶媒体として複数枚のLD(レー
ザディスク)が収容され、更にこのLDから指定曲のオ
ーディオ出力AUDIOをミキシングアンプ13に出力
するとともに、ビデオ出力VIDEOをモニタ12に出
力する。ミキシングアンプ13はマイク14から入力さ
れる歌い手の歌唱音声を演奏曲に混合して出力し、スピ
ーカ15はこのミキシング信号を拡声出力する。この
時、モニタ12では曲に対応して記憶された画像情報、
即ち背景画像と歌詞画像を表示して歌い手の歌唱をガイ
ドする。
The musical tone reproduction type karaoke apparatus 10 is a self-contained system. In the LD changer system 11, a plurality of LD (s) are stored as a storage medium storing a large number of audio signals of a musical composition and their background images and lyrics images. A laser disk) is housed therein, and the LD outputs the audio output AUDIO of the designated music to the mixing amplifier 13 and the video output VIDEO to the monitor 12. The mixing amplifier 13 mixes the singing voice of the singer input from the microphone 14 with the musical piece to be output, and the speaker 15 outputs the mixing signal in a loud voice. At this time, the monitor 12 stores the image information stored in correspondence with the music,
That is, the background image and the lyrics image are displayed to guide the singer's singing.

【0011】図2は、カラオケ制御装置20の内部構成
を詳細に示すブロック図である。このカラオケ制御装置
20は、楽音合成/楽音再生対応のコマンダ部21、楽
音合成用のファイルシステムユニット22、および多彩
な機能を有する演奏・表示ユニット23に大別される。
FIG. 2 is a block diagram showing the internal structure of the karaoke controller 20 in detail. The karaoke control device 20 is roughly classified into a commander unit 21 for tone synthesis / tone playback, a file system unit 22 for tone synthesis, and a performance / display unit 23 having various functions.

【0012】コマンダ部21は、リモコン50からの指
令信号を受信するリモコンレシーバ21Aと、本カラオ
ケ制御装置20の前面パネルに敷設されたキー入力部
(図1の24)からの指令信号を取り込むキー入力イン
ターフェース21Bと、リモコンレシーバ21Aまたは
キー入力インターフェース21Bからの入力に従い、曲
の演奏を制御する選曲・予約コントローラ21Cと、こ
の選曲・予約内容を表示する表示器21Dと、この表示
器21Dを駆動する表示器ドライバ21Eと、オーディ
オ(A)およびビジュアル(V)の入力および出力をそ
れぞれ選択するAV入出力セレクタ21Fと、LDチェ
ンジャシステム11内のLDチェンジャ11Aを制御す
るコントロール出力インターフェース21Gとを備え
る。
The commander section 21 is a key for receiving a command signal from a remote control receiver 21A for receiving a command signal from the remote controller 50 and a key input section (24 in FIG. 1) laid on the front panel of the karaoke control apparatus 20. According to the input from the input interface 21B, the remote control receiver 21A or the key input interface 21B, the music selection / reservation controller 21C for controlling the performance of the music, the display 21D for displaying the content of the music selection / reservation, and the display 21D are driven. A display driver 21E, an AV input / output selector 21F for selecting audio (A) and visual (V) inputs and outputs, and a control output interface 21G for controlling the LD changer 11A in the LD changer system 11. .

【0013】ファイルシステムユニット22は、選曲・
予約コントローラ21Cから選曲された曲の演奏指示を
受けるファイルコントローラ22Aと、ISDN回線4
0を介してホスト局30と交信するISDNコントロー
ラ22B(通信制御装置)と、ISDN回線40を通し
て取り込んだ曲データを格納する記憶装置22Cとを備
える。ファイルコントローラ22Aは、選曲・予約コン
トローラ21Cからの選曲・予約指示を受けると、先ず
記憶装置22C内に該当する曲の曲データが記憶されて
いるか否かをサーチする。そして、記憶されている場合
には、記憶装置22Cから該当する曲データを読み出
し、記憶されてない場合にはISDNコントローラ22
Bを制御してホスト局から該当する曲データを転送して
もらう。記憶装置22Cとしては、例えば、1曲当たり
10KB(Bはバイト)として、1000曲分の曲デー
タを格納できる100MBのHDD(ハードディスク)
を使用する。
The file system unit 22 selects music
A file controller 22A that receives a performance instruction of a selected song from the reservation controller 21C and an ISDN line 4
An ISDN controller 22B (communication control device) that communicates with the host station 30 via 0 and a storage device 22C that stores the music data taken in through the ISDN line 40. When the file controller 22A receives a song selection / reservation instruction from the song selection / reservation controller 21C, it first searches the storage device 22C to determine whether or not the song data of the corresponding song is stored. If it is stored, the corresponding song data is read from the storage device 22C, and if it is not stored, the ISDN controller 22 is read.
Control B and have the host station transfer the corresponding song data. As the storage device 22C, for example, 100 KB HDD (hard disk) capable of storing song data for 1000 songs, with 10 KB per song (B is byte).
To use.

【0014】演奏・表示ユニット23は、ファイルコン
トローラ22Aからの曲データを一時保持するデータバ
ッファ23Aと、この曲データに含まれるイベント情報
に従い楽音、画像、効果等の各種イベントを制御するマ
ルチメディアシーケンサ(MMS)23Bと、このシー
ケンサ23Bの制御のもとで演奏曲の楽音を形成する音
源プロセッサ23Cと、演奏曲に対応する背景画像や歌
詞画像を生成するビデオプロセッサ23Dと、このビデ
オプロセッサ23Dのビデオ出力をLDチェンジャ11
Aの背景画像LD(BGV−LD)から読み出された画
像(例えば、動画の背景画像)に重ねるビデオスーパー
インポーザ23Eとを備える。
The performance / display unit 23 includes a data buffer 23A for temporarily holding music data from the file controller 22A, and a multimedia sequencer for controlling various events such as musical sounds, images and effects in accordance with event information contained in the music data. (MMS) 23B, a tone generator 23C that forms a musical tone of a performance song under the control of the sequencer 23B, a video processor 23D that generates a background image and lyrics image corresponding to the performance song, and a video processor 23D. Video output to LD changer 11
And a video superimposer 23E which is superimposed on an image (for example, a background image of a moving image) read from the background image LD (BGV-LD) of A.

【0015】コマンダ部21のAV入出力セレクタ21
Fは、オーディオに関しては、LDチェンジャ11Aか
らのオーディオ出力か音源プロセッサ23Cで合成され
た楽音のいずれかを選択して、ミキシングアンプ13へ
のオーディオ出力とする。また、画像に関しては、LD
チェンジャ11Aからの画像とビデオスーパーインポー
ザ23Eからの画像とを選択して、モニタ12へのビデ
オ出力とする。このAV入出力セレクタ21FとLDチ
ェンジャ11Aとの間を接続しなければ、カラオケ制御
装置20は楽音再生型カラオケ装置10とシステム的に
独立している。両者を結合関係におくのが、AV入出力
セレクタ21Fであり、またコントロール出力インター
フェース21Gである。
AV input / output selector 21 of commander section 21
Regarding the audio, F selects either the audio output from the LD changer 11A or the musical sound synthesized by the sound source processor 23C and outputs it as the audio output to the mixing amplifier 13. For images, LD
The image from the changer 11A and the image from the video superimposer 23E are selected to be video output to the monitor 12. If the AV input / output selector 21F and the LD changer 11A are not connected, the karaoke control device 20 is systematically independent of the musical sound reproduction type karaoke device 10. It is the AV input / output selector 21F and the control output interface 21G that put the two in a coupled relationship.

【0016】図1および図2の様な結合関係を持つ総合
カラオケシステムにおいて、リモコン50等からの選曲
指示を受けたコマンダ部21は、先ず、該当する曲がL
Dチェンジャ11Aに格納されているか否かを確認す
る。つまり、楽音再生型カラオケ装置10に第1優先順
位を与えて、そのソース(オーディオおよびビデオ)を
有効利用する。ここで、LDチェンジャ11Aに該当す
る曲の情報があれば、そのオーディオおよびビデオ出力
を使用してカラオケ演奏をする。
In the integrated karaoke system having the connection relationship as shown in FIGS. 1 and 2, the commander section 21 which receives a song selection instruction from the remote controller 50 or the like first sets the corresponding song to L
It is confirmed whether it is stored in the D changer 11A. That is, the musical tone reproduction type karaoke apparatus 10 is given the first priority and its sources (audio and video) are effectively used. If the LD changer 11A has information on the corresponding song, the karaoke performance is performed using the audio and video outputs.

【0017】これに対し、LDチェンジャ11Aに該当
する曲のデータがないときは、ファイルコントローラ2
2Aに曲番号を転送し、楽音合成側の曲データを使用す
る。この場合も、直ちにホスト局30にアクセスするの
ではなく、先ず記憶装置22Cに該当する曲の曲データ
が記憶されているか否かを確認する。ここで、記憶装置
22Cに該当する曲のデータが記憶されている場合に
は、それを読み出して使用する。つまり、記憶装置22
Cからの曲データ読み出しに第2優先順位を与えてい
る。この記憶装置22Cにも該当する曲の曲データがな
いときは、ISDN回線を通してホスト局30から該当
する曲の曲データを転送してもらう。つまり、このホス
ト局からの曲データ取り込みを第3優先順位とする。記
憶装置22Cがない完全楽音合成型では、ホスト局から
のデータ取り込みが第2優先順位となる。
On the other hand, when the LD changer 11A does not have the data of the corresponding music, the file controller 2
The music number is transferred to 2A, and the music data on the music synthesis side is used. Also in this case, the host station 30 is not accessed immediately, but it is first confirmed whether or not the music data of the corresponding music is stored in the storage device 22C. Here, if the data of the corresponding song is stored in the storage device 22C, it is read and used. That is, the storage device 22
The second priority is given to the song data read from C. When the storage device 22C does not have the music data of the corresponding music, the host station 30 transfers the music data of the corresponding music through the ISDN line. That is, the acquisition of the music piece data from this host station is set as the third priority. In the complete tone synthesis type without the memory device 22C, data acquisition from the host station has the second priority.

【0018】図3は、図1および図2に示したシステム
構成要素の中で主要な部分の関係を示す概念図である。
即ち、本発明に係るカラオケ制御装置20に含まれるマ
イコンボード25には、楽音合成系および楽音再生系を
制御できる機能が搭載されている。このマイコンボード
25は、リモコン50からの曲番号指定に対し、HDD
に記憶されたインデックスデータを参照し、楽音合成
系、即ち、通信回線40からの曲データを使用するか
(CD−ROM41を装備する場合はそのシーケンス音
源データを使用できる)、或いは楽音再生系、即ち、オ
ートチェンジャ11に搭載されている各種ソースLD/
CD/CDG/CDI/CD動画に収容されているデー
タを使用するか否かを判断し、その制御を行う。この実
施例では、記憶装置22Cおよびビデオプロセッサ23
Dは楽音合成系の標準装備であり、その他の制御部分が
マイコンボード25に集約される。このマイコンボード
25は、任意の機種に対応可能とするため、本体に対し
差し替え可能な機構により結合されるが、勿論、マイコ
ンボードの主要部分までも標準装備とし、特定の機種を
コントロールするプログラムROM(図示せず)の部分
だけを差し替え可能なように構成しても良い。
FIG. 3 is a conceptual diagram showing the relationship of main parts of the system components shown in FIGS. 1 and 2.
That is, the microcomputer board 25 included in the karaoke control device 20 according to the present invention has a function capable of controlling the musical tone synthesis system and the musical tone reproduction system. This microcomputer board 25 is an HDD for responding to the music number designation from the remote controller 50.
Refer to the index data stored in, to use the tone synthesis system, that is, use the song data from the communication line 40 (the sequence sound source data can be used when the CD-ROM 41 is equipped), or the tone reproduction system, That is, various source LDs mounted on the autochanger 11
Whether or not to use the data contained in the CD / CDG / CDI / CD moving image is determined, and the control is performed. In this embodiment, storage device 22C and video processor 23
D is a standard equipment of a musical sound synthesizing system, and other control parts are integrated in the microcomputer board 25. Since this microcomputer board 25 is compatible with any model, it is connected to the main body by a mechanism that can be replaced. Of course, the main part of the microcomputer board is also standard equipment, and a program ROM that controls a specific model. Only the part (not shown) may be replaceable.

【0019】図4は、本発明に係る総合カラオケシステ
ムの機能を更に詳細に説明するためのシステム構成図で
ある。図1〜図3に示されていない部分について説明す
ると、次のようになる。61は、このカラオケシステム
全体の動作をプログラムROM23Bのもと制御・管理
するCPU(中央処理装置)である。62は、CPU6
1により、このカラオケシステムの動作を制御・管理す
るときに使用されるランダムアクセスメモリ(RAM)
である。63はこのシステム全体を結合するためのバス
(データ、アドレス)である。64は、外部にMIDI
(Musical Instrument Digital Interface)楽器42を
接続する場合のインターフェースである。65は、LD
チェンジャ11を制御するためのチェンジャコントロー
ラであり、複数の機種に対応できるよう取り替え可能な
構成になっている。
FIG. 4 is a system configuration diagram for explaining the functions of the integrated karaoke system according to the present invention in more detail. The parts not shown in FIGS. 1 to 3 will be described below. A CPU (central processing unit) 61 controls and manages the operation of the entire karaoke system under the program ROM 23B. 62 is the CPU 6
1. Random access memory (RAM) used when controlling and managing the operation of this karaoke system
Is. 63 is a bus (data, address) for connecting the entire system. 64 is MIDI to the outside
(Musical Instrument Digital Interface) An interface for connecting the musical instrument 42. 65 is an LD
This is a changer controller for controlling the changer 11, and has a replaceable configuration so as to be compatible with a plurality of models.

【0020】66は、マルチメディアシーケンサ23B
から出力されるADPCMデータをビット変換および周
波数変換して伸長するADPCMプロセッサである。6
7は、ADPCMプロセッサ66の出力を音程情報に従
い音高を制御するピッチシフタである。68は、ピッチ
シフタ67の出力および音源プロセッサ23Cの出力を
入力とするエフェクタミキサである。69は、マイク1
4の出力にエコー、エキサイタ等の音響効果を加えるマ
イクエフェクタである。70は、マイクエフェクタ69
の出力およびLDチェンジャ11のオーディオ出力に音
場効果を与えるオーディオDSP(音場創成器)であ
る。
66 is a multimedia sequencer 23B
It is an ADPCM processor that expands ADPCM data output from the device by bit conversion and frequency conversion. 6
A pitch shifter 7 controls the pitch of the output of the ADPCM processor 66 according to the pitch information. Reference numeral 68 is an effector mixer that receives the output of the pitch shifter 67 and the output of the sound source processor 23C. 69 is the microphone 1
4 is a microphone effector that adds acoustic effects such as echo and exciter to the output of FIG. 70 is a microphone effector 69
2 is an audio DSP (sound field generator) that gives a sound field effect to the output of the above and the audio output of the LD changer 11.

【0021】71は、記憶装置22Cに対し、ISDN
回線40を使用せずに、大量の曲データをロードする場
合に使用するポータブル型のダウンロード機であり、例
えばこのシステムの楽音合成系を設置した初期の段階
で、設置業者が持ち込んでロードすることにより、設置
者側で長時間ISDN回線40を通してホスト局30と
交信しないで済むようにするものである。このダウンロ
ード機71の用法はこの他にも考えられる。
Reference numeral 71 denotes an ISDN for the storage device 22C.
It is a portable downloader used when loading a large amount of song data without using the line 40. For example, it should be brought in and loaded by the installer at the initial stage when the tone synthesis system of this system was installed. Thus, the installer side does not have to communicate with the host station 30 through the ISDN line 40 for a long time. Other uses of the download machine 71 are possible.

【0022】音源プロセッサ23Cは、曲データにより
駆動されて演奏曲の楽音信号を合成するいわゆるミュー
ジックシンセサイザであり、例えばMIDI信号に基づ
き楽音を合成する音源部と、それを制御する制御部とを
備えている。ビデオプロセッサ23Dは、演奏曲に対応
する歌詞等の文字情報および静止画、動画等の背景画像
情報を処理して表示用の画像信号を生成する。ここで
は、歌詞画像用のビデオプロセッサ23D1と、背景画
像用のビデオプロセッサ23D2を用いる例を示してい
る。LDチェンジャ11は、光ディスクに記録されたカ
ラオケ曲を演奏する場合、または映像情報のみを再生す
る場合に機能し、楽音合成系として使用する場合は音源
23Cで合成された伴奏演奏に同期して、所定のディス
クの所定のフレームの静止画または所定のフレームを起
点とする動画等からなる映像情報を再生する。ビデオセ
レクタ23Eは、この様な3種類の画像を1画面に合成
して出力する。
The tone generator processor 23C is a so-called music synthesizer which is driven by song data and synthesizes tone signals of a performance song. For example, the tone generator processor 23C includes a tone generator unit which synthesizes tone sounds based on MIDI signals, and a control unit which controls the tone generator unit. ing. The video processor 23D processes character information such as lyrics corresponding to a performance song and background image information such as a still image and a moving image to generate an image signal for display. Here, an example is shown in which the video processor 23D1 for the lyrics image and the video processor 23D2 for the background image are used. The LD changer 11 functions when playing a karaoke piece recorded on an optical disk, or when playing only video information, and when used as a musical tone synthesis system, in synchronization with the accompaniment performance synthesized by the sound source 23C, Video information including a still image of a predetermined frame of a predetermined disc or a moving image having a predetermined frame as a starting point is reproduced. The video selector 23E combines these three types of images into one screen and outputs the combined image.

【0023】以下、動作を説明する。 (01)楽音再生/楽音合成制御 リモコン24またはフロントパネル50の操作により、
演奏曲が指定されると、CPU61は、記憶手段22C
に記憶されたインデックステーブルを参照し、第1順位
として先ずLDチェンジャ11内のLDに該当する曲の
データがあるか否かを確認し、あればその部分を再生す
る。このLDからのビデオ信号はビデオセレクタ23E
に入力してモニタ12に表示され、またオーディオ信号
はオーディオDSP70に入力してスピーカ15から出
力される。歌い手の歌唱音声はマイク14で電気信号に
変換され、マイクエフェクタ69を通してオーディオD
SP70に入力する。ミキサ13は演奏曲と歌唱音声と
を混合するので、スピーカ15からは両者が混合された
音響出力が生ずる。
The operation will be described below. (01) Musical sound reproduction / musical sound synthesis control By operating the remote control 24 or the front panel 50,
When the musical piece to be played is designated, the CPU 61 causes the storage means 22C.
First, it is checked whether or not there is data of a music piece corresponding to the LD in the LD changer 11 as the first rank by referring to the index table stored in the table, and if there is, that portion is reproduced. The video signal from this LD is the video selector 23E.
To be displayed on the monitor 12, and the audio signal is input to the audio DSP 70 and output from the speaker 15. The singing voice of the singer is converted into an electric signal by the microphone 14, and the audio signal is transmitted through the microphone effector 69.
Input to SP70. Since the mixer 13 mixes the performance music and the singing voice, the speaker 15 produces a mixed acoustic output.

【0024】指定曲がLDチェンジャ11内にないとき
は、CPU61は第2順位としてHDD装置22Cに保
有されている曲をサーチする。HDD装置22C内に該
当する曲があれば、その演奏曲の曲データを読出してR
AM62にロードし、この曲データに従って音源23C
で楽音が合成されカラオケの演奏を行う。この様な音源
カラオケの演奏は、シーケンサ23Bの制御のもとに行
われる。演奏曲に関しては、RAM62から読み出され
た曲データに従い、音源プロセッサ23Cにおいて逐次
楽音情報が生成され、ミキサエフェクタ68、オーディ
オDSP70、ミキサ13を介してスピーカ15から再
生される。
When the designated song is not in the LD changer 11, the CPU 61 searches the song held in the HDD device 22C as the second rank. If there is a corresponding song in the HDD device 22C, the song data of the played song is read out and R is read.
Loaded to AM62 and sound source 23C according to this song data
The musical sound is synthesized with and a karaoke performance is performed. The performance of such a sound source karaoke is performed under the control of the sequencer 23B. With respect to the musical piece to be played, musical tone information is successively generated in the tone generator processor 23C in accordance with the musical piece data read from the RAM 62, and is reproduced from the speaker 15 via the mixer effector 68, the audio DSP 70, and the mixer 13.

【0025】画像に関しては、同様にRAM62から読
み出された曲データをもとにシーケンサ23Bの指示に
従い、ビデオプロセッサ23D1,23D2において曲
の進行に合わせた歌詞画像および背景画像が生成され、
ビデオセレクタ23Cを介してモニタ12に表示され
る。LDチェンジャ11からの背景画像も使用する場合
は、これら3画像をビデオセレクタ23Eで合成して表
示する。モニタ12に表示される歌詞画像は、表示され
る歌詞の色が歌唱の進行に合わせて他の色の文字に変更
されるなどして、歌うべき個所が歌い手に容易に把握で
きるように指示される。したがって、歌い手はモニタ1
2に表示される歌詞画像を見ながらマイク14を持って
歌えばよい。
Regarding the image, similarly, based on the music data read from the RAM 62, the video processor 23D1 and 23D2 generate the lyrics image and the background image according to the progress of the music in accordance with the instruction of the sequencer 23B.
It is displayed on the monitor 12 via the video selector 23C. When the background image from the LD changer 11 is also used, these three images are combined and displayed by the video selector 23E. The lyrics image displayed on the monitor 12 is instructed so that the singer can easily understand where to sing because the color of the displayed lyrics is changed to a character of another color according to the progress of the singing. It Therefore, the singer is monitor 1
Sing with the microphone 14 while watching the lyrics image displayed in 2.

【0026】HDD装置22Cにも該当する曲データが
蓄積されていない場合は、第3順位としてCPU61は
ホスト局30からオンラインで該当する曲のデータを取
り込む制御をする。即ち、ISDN回線40を使用して
ホスト局30を呼び出し、応答したら曲番号を送り、対
応する曲データを転送してもらう。この曲データは再利
用する可能性があるので、HDD装置22Cに蓄積す
る。
When the corresponding song data is not stored in the HDD device 22C, the CPU 61 controls to fetch the data of the relevant song online from the host station 30 as the third rank. That is, the ISDN line 40 is used to call the host station 30, and when it responds, the music number is sent and the corresponding music data is transferred. Since the music data may be reused, it is stored in the HDD device 22C.

【0027】(02)ホスト局からの転送データフォーマ
ット 音源カラオケ装置で使用されるカラオケ曲データのフォ
ーマットは、通常、図5(a)に示すように、曲ヘッダ
から始まり、これに時間情報とイベント情報を持つ歌詞
表示トラック、音源演奏トラック、ディジタル音声トラ
ック等の各トラックを順に記憶することで1曲分のデー
タを構成している。このフォーマットでホスト局からデ
ータ転送すると、カラオケ装置側では最後のディジタル
音声トラックまでロードしなければ演奏開始できないの
で、ユーザが曲指定してから実際に演奏開始されるまで
に相当な時間がかかる。
(02) Transfer data format from the host station The format of the karaoke piece data used in the sound source karaoke apparatus usually starts from the piece header as shown in FIG. Data for one song is constructed by sequentially storing each track such as a lyrics display track, a sound source performance track, and a digital voice track having information. When data is transferred from the host station in this format, the karaoke apparatus cannot start playing unless the last digital voice track is loaded, so it takes a considerable time from the user's designation of the song to the actual start of playing.

【0028】例えば、曲ヘッダの容量が15KB〜20
KB、歌詞表示トラックからディジタル音声トラックま
での全容量が100KBであるとすると、毎秒8KB転
送可能な高速ISDN回線を用いても、15秒程度の通
信時間を必要とする。実際には、これにホスト局の呼出
時間、或いはホスト局での選曲時間等のオーバーヘッド
が加わるので、全体では20秒程度必要になる。この待
ち時間は、ハードディスクから1曲を読み出すに必要な
時間(1〜2秒)と比べ、10倍以上の長さとなる。
For example, the capacity of the music header is 15 KB to 20
Assuming that the total capacity from KB, lyrics display track to digital audio track is 100 KB, communication time of about 15 seconds is required even if a high speed ISDN line capable of transferring 8 KB per second is used. Actually, since the overhead such as the calling time of the host station or the music selection time at the host station is added to this, it takes about 20 seconds in total. This waiting time is 10 times or more as long as the time (1 to 2 seconds) required to read one song from the hard disk.

【0029】そこで、転送データのフォーマットを図5
(b)の様に変更する。即ち、図5(a)のフォーマッ
トにおいて、歌詞表示トラックが時系列データA1,A
2,…ANの集合であり、同様に音源演奏トラックが時
系列データB1,B2,…BNの集合であり、更にディ
ジタル音声トラックが時系列データC1,C2,…CN
の集合である場合、同図(b)のフォーマットでは、各
トラックの第1データA1,B1,C1を集めて第1ト
ラックとし、また第2データA2,B2,C2を集めて
第2トラックとし、以下同様に、第NデータAN,B
N,CNをに集めて第Nトラックとする。
Therefore, the format of the transfer data is shown in FIG.
Change as shown in (b). That is, in the format of FIG. 5A, the lyrics display track is time-series data A1, A.
2, ... AN, a sound source performance track is a set of time series data B1, B2, ... BN, and a digital audio track is a time series data C1, C2 ,.
In the format of FIG. 2B, the first data A1, B1, C1 of each track is collected as the first track, and the second data A2, B2, C2 is collected as the second track. , And so on, similarly to the Nth data AN, B
Collect N and CN to form the Nth track.

【0030】一例として、N=6とした場合、第1トラ
ック(約15KB)の転送は約2秒で完了する。曲ヘッ
ダの転送が約2秒であるから、第1トラックのロードま
でに4秒しか必要としない。これに、他のオーバーヘッ
ドを加えても、8秒程度で済む。しかも、この第1トラ
ックを受信したカラオケ装置は、その曲の歌詞表示、音
源演奏、ディジタル音声の全ての情報を一部ではあるが
入手したことになるので、カラオケ演奏を歌詞表示等の
イベントを伴いながら速やかに開始することができる。
試算によれば、例えば演奏時間3分の曲を6分割した第
1トラックだけで約30秒の演奏が可能である。
As an example, when N = 6, the transfer of the first track (about 15 KB) is completed in about 2 seconds. Since it takes about 2 seconds to transfer the song header, it takes only 4 seconds to load the first track. Even if other overhead is added to this, it takes about 8 seconds. Moreover, since the karaoke device receiving this first track has obtained all the information of the lyrics display, sound source performance, and digital voice of the song, although it is a part, the karaoke performance is displayed at the event such as lyrics display. Along with this, it can be started promptly.
According to a trial calculation, for example, about 30 seconds of performance can be performed only by the first track obtained by dividing a song having a playing time of 3 minutes into 6 pieces.

【0031】従って、第1トラックをロードしたら第1
トラックによる演奏を開始し、その間に第2トラック以
下をロードする。そして、第1トラックの演奏が終了し
たら第2トラックを演奏しながら、同時に残りのトラッ
クをロードするという処理を並行して行う。この様にす
れば、オンラインでありながら迅速に演奏を開始でき、
しかも途中で中断することなく、最後まで演奏すること
ができる。
Therefore, when the first track is loaded, the first track
Start playing the tracks, and load the second track onwards during that time. Then, when the performance of the first track is completed, a process of simultaneously loading the remaining tracks while performing the second track is performed in parallel. By doing this, you can start playing quickly while online.
Moreover, you can play to the end without interruption.

【0032】歌詞表示トラック、音源演奏トラック、デ
ィジタル音声トラックの各データはMIDIの様にデー
タ量が少ない。これに対し、バックコーラスのようにデ
ータ量の多いデータを付加する場合がある。この様な場
合にデータ量を減らすため、図5(a)に示す例では、
11Kまたは22KHzのサンプリングレートで4ビッ
トに圧縮したADPCM(アダプティブ・デルタPC
M)データを最後のトラックに付加している。このAD
PCMトラックのデータサイズは数100KBに及ぶこ
とが予測され、これを全て転送しきるまでの時間ははる
かに長い。この様な場合に、同図(b)に示すように、
適度に区分されるADPCMデータD1,D2,…を第
1トラック、第2トラック…に分けて転送すれば、バッ
クコーラス付きの演奏曲でも迅速に演奏開始することが
できる。
The data amount of each of the lyrics display track, the sound source performance track, and the digital voice track is small like MIDI. On the other hand, a large amount of data such as back chorus may be added. In order to reduce the amount of data in such a case, in the example shown in FIG.
ADPCM (Adaptive Delta PC) compressed to 4 bits at a sampling rate of 11K or 22KHz
M) Data is added to the last track. This AD
The data size of the PCM track is expected to reach several hundreds of KB, and it takes much longer to transfer all the data. In such a case, as shown in FIG.
If the properly divided ADPCM data D1, D2, ... Are separately transferred to the first track, the second track, and so on, even a musical piece with a back chorus can be started quickly.

【0033】(02-2)HDDへのダウンロード ISDN回線40を通してHDD22Cにダウンロード
する方法はいくつかある。第1は直ちにHDD22Cに
ロードする方法である。しかし、HDDはキャッシュと
して用いられるので、使用頻度の高い曲の曲データだけ
が蓄積されるようにしておく必要がある。そこで、ここ
では不要な曲データを極力蓄積しないようにする方法を
説明する。
(02-2) Download to HDD There are several methods for downloading to the HDD 22C through the ISDN line 40. The first is a method of immediately loading to the HDD 22C. However, since the HDD is used as a cache, it is necessary to store only song data of frequently used songs. Therefore, here, a method for preventing unnecessary song data from being stored will be described.

【0034】即ち、図6に示すように、RAM62内に
いくつかのバッファを設定し、先ずCPU61によって
ISDN回線40から取り込んだデータをISDNダウ
ンロードバッファ62Aに保存し、これを演奏バッファ
62Bに書き込んで演奏する。演奏を開始して暫くする
と、その演奏曲が希望したものであるか否かが歌い手に
よって確認され、時として希望しない曲の演奏に対しキ
ャンセルを申し込むことがある。キャンセルされた曲は
間違えて指定された使用頻度の低い曲である場合が多
く、HDD22Cに蓄積する必要はないので、そのデー
タをHDD22Cに記憶せずに消去する。これに対し、
演奏開始から暫くしても(例えば、30秒経過しても)
キャンセルされない場合は、演奏曲が希望されたもので
あると判断できるので、その場合にはダウンロードバッ
ファ62AからHDDバッファ62Cにデータを移し
て、HDD22Cにそのデータを蓄積する。
That is, as shown in FIG. 6, several buffers are set in the RAM 62, and the data fetched from the ISDN line 40 by the CPU 61 is first stored in the ISDN download buffer 62A and written in the performance buffer 62B. play. Shortly after the performance is started, the singer confirms whether or not the desired music is the desired music, and sometimes cancels the performance of the music that is not desired. In many cases, the canceled piece of music is mistakenly designated as a piece of less frequently used music and does not need to be stored in the HDD 22C, so the data is erased without being stored in the HDD 22C. In contrast,
Even after a while from the beginning of the performance (for example, 30 seconds have passed)
If it is not canceled, it can be determined that the musical piece to be played is desired, and in that case, the data is transferred from the download buffer 62A to the HDD buffer 62C and stored in the HDD 22C.

【0035】(02-3)HDDからのデータ削除 図6は、HDD22Cに不要なデータを蓄積しないため
の手法であるが、キャンセルされた曲のデータであって
も例えばキャンセルマークを付してHDD22Cに蓄積
し、HDDの空き容量が少なくなったときに優先的に消
去できる対象にしておけば、その後同じ曲に対するリク
エストがあったときに、ホスト局にアクセスせずにHD
D22Cから直ちに供給できる可能性も残る。この方法
は、HDD22Cのデータ管理にデータの使用頻度と使
用時期を参照するのに加えて/代えて、キャンセルされ
たという優先消去条件を参照するものである。
(02-3) Deleting Data from HDD FIG. 6 shows a method for preventing unnecessary data from being stored in the HDD 22C. However, even canceled song data is marked with a cancel mark, for example, in the HDD 22C. If you make a target that can be erased preferentially when the HDD's free space becomes low, the HD will be stored without accessing the host station when a request for the same song is made.
There is also the possibility of immediate supply from D22C. In this method, in addition to / instead of referring to the data usage frequency and usage time for the data management of the HDD 22C, the priority erasing condition of being canceled is referenced.

【0036】(02-4)アレンジ指定式データ構造 図5のデータ構造は、一つの曲に対し1種類のデータだ
けを割り当てたものであるが、図7に示すデータ構造
は、一つの曲に対し複数種類のデータを対応付け、ユー
ザがこれを選択して使用できるようにしてある。例え
ば、歌詞トラック1には通常の日本語の歌詞データが含
まれており、歌詞トラック2にはその外国語の歌詞デー
タが、また歌詞トラック3には日本語の変え歌の歌詞デ
ータが含まれるという様に、である。演奏トラックや画
像トラックについても同様であり、それぞれアレンジさ
れた内容のデータが含まれる。曲ヘッダの一部には、こ
れらトラックの組み合わせを、単純なアレンジ番号で指
定できるテーブルがある。
(02-4) Arrangement Designation Data Structure The data structure of FIG. 5 is such that only one type of data is assigned to one song, but the data structure shown in FIG. 7 is for one song. On the other hand, a plurality of types of data are associated with each other so that the user can select and use them. For example, the lyrics track 1 contains normal Japanese lyrics data, the lyrics track 2 contains lyrics data of the foreign language, and the lyrics track 3 contains lyrics data of a Japanese alternation song. And so on. The same applies to the performance track and the image track, and the data of the arranged contents are included in each. A part of the song header has a table that can specify a combination of these tracks by a simple arrangement number.

【0037】図示の例では、アレンジNo.1は、歌詞
トラック1、演奏トラック1(実際には複数トラックに
なることが多い)、画像トラック1を組み合わせて使用
するアレンジ内容を示している。この様なデータ構造
は、それぞれのアレンジに対し独立した曲データを設定
する場合より、全体のデータ容量を削減することができ
(一部データを共用できる)、通信時間及び記憶容量の
削減に貢献する。また、同じ曲に関する複数種類のデー
タが関連づけられているので、データ管理がしやすいメ
リットもある。
In the illustrated example, the arrangement number. Reference numeral 1 indicates an arrangement content in which a lyrics track 1, a performance track 1 (in many cases, a plurality of tracks are actually used), and an image track 1 are used in combination. Such a data structure can reduce the total data capacity (some data can be shared) compared to the case where independent song data is set for each arrangement, and contributes to reduction of communication time and storage capacity. To do. Also, since multiple types of data relating to the same song are associated, there is an advantage that data management is easy.

【0038】データ構造がこの様になっていても、ユー
ザはアレンジ指定を意識する必要はない。即ち、通常の
カラオケの曲リスト表(本)の様に、例えば同じ曲の日
本語版と外国語版とが異なる曲番号で表示されていれ
ば、その曲番号を指定するだけで、上述したアレンジが
自動的に行われるからである。
Even if the data structure is like this, the user does not need to be aware of the arrangement designation. That is, if the Japanese version and the foreign language version of the same song are displayed with different song numbers, as in a normal karaoke song list (book), the song number is simply specified. This is because the arrangement is done automatically.

【0039】(02-5)歌詞フォント指定 同じ歌詞のフォントだけを変えるアレンジをする場合、
フォント別の歌詞トラックを用意することはデータ量を
増大させる。この点を回避するために、ここでは、図8
に示すように、曲ヘッダの中、或いは歌詞トラックの中
に、フォントを指定するフォントIDを挿入しておき、
フォントIDが出現する毎に、その指定に従いフォント
を変更する方法を説明する。歌詞トラックは、歌詞画像
を表示させる文字コードを時系列に配列したものである
が、曲ヘッダにフォントIDがあればその内容に従い、
図4のHDD22Cに記憶されたフォントブロックをR
AM62に展開し、歌詞トラック中の文字コードに対応
した文字を用いて歌詞表示を開始し、途中で歌詞トラッ
クの中にフォントIDが挿入されていたら、その内容の
フォントに変更して(異なるフォントブロックをRAM
62に読み込んで)歌詞表示を続ける。
(02-5) Lyrics font designation When arranging to change only the font of the same lyrics,
Providing lyrics tracks for each font increases the amount of data. In order to avoid this point, here, FIG.
As shown in, insert a font ID that specifies a font in the song header or the lyrics track,
A method of changing the font according to the designation each time the font ID appears will be described. The lyrics track is a time-series arrangement of character codes for displaying lyrics images. If there is a font ID in the song header,
R is the font block stored in the HDD 22C of FIG.
Expand to AM62, start displaying lyrics using characters corresponding to the character code in the lyrics track, and if a font ID is inserted in the lyrics track in the middle, change to the font of that content (different font RAM blocks
Continue reading the lyrics (read to 62).

【0040】フォントデータは通常ROMに格納されて
いるが、上述のようにHDD22Cにもフォントを格納
し、これをRAM62に展開して使用するようにすれ
ば、ホスト局30からフォントの変更、追加が可能とな
り、カラオケ装置側にフォント用ROMを追加する必要
がない。このため、同一言語のフォントを変更するだけ
でなく、例えば、最初に日本語だけの歌詞でスタートし
た演奏曲に、その後、他の外国語の歌詞に変更したい場
合にも、このフォント指定機能を利用できる。即ち、ホ
スト局からの曲データに含まれるフォントIDを変更す
る一方、対応するフォントをHDD22CからRAM6
2に展開して使用すれば良い。
Although the font data is usually stored in the ROM, if the font is also stored in the HDD 22C and is expanded in the RAM 62 for use as described above, the host station 30 can change or add the font. Therefore, it is not necessary to add a font ROM to the karaoke device side. For this reason, if you want to change not only the font of the same language but also the song that started with lyrics only in Japanese first, and then change to the lyrics of another foreign language, use this font specification function. Available. That is, while changing the font ID included in the music data from the host station, the corresponding font is changed from the HDD 22C to the RAM 6
It can be used after expanding to 2.

【0041】(03)マルチメディアシーケンサ マルチメディアシーケンサ23Bは、MIDIシーケン
サをベースとし、これに複数のタスクを同時に実行でき
るOS機能を持たせ、一つの曲データに含まれる複数ト
ラックのイベントをソフト的に同期してリアルタイムで
実行できるようにしたものである。イベントとは、カラ
オケ演奏に付随する広範囲の事象であり、演奏はもとよ
り、歌詞表示、背景表示、音響効果、外部機器制御等が
含まれる。
(03) Multimedia Sequencer The multimedia sequencer 23B is based on a MIDI sequencer, and is provided with an OS function capable of simultaneously executing a plurality of tasks, so that events of a plurality of tracks included in one piece of music data can be processed by software. It can be executed in real time in synchronization with. An event is a wide range of events that accompany a karaoke performance, and includes not only performance but also lyrics display, background display, sound effects, external device control, and the like.

【0042】シーケンサ23Bには、CPU61によっ
てRAM62から読み出された曲データが入力される。
この曲データは、例えば図5に示したように、歌詞トラ
ックからディジタル音声トラックまでのMIDIデータ
と、最後に付加されたADPCMデータである。シーケ
ンサ23Bが、音源演奏用のMIDIデータを音源プロ
セッサ23Cに入力すると、そこで楽音情報に変換され
る。また、シーケンサ23BがADPCMデータをAD
プロセッサ66に出力すると、そこで圧縮前のデータに
伸長される。シーケンサ23Bは、各種のイベント情報
に従い、ADプロセッサ66の伸長タイミングをコント
ロールする。
The song data read from the RAM 62 by the CPU 61 is input to the sequencer 23B.
This song data is, for example, as shown in FIG. 5, MIDI data from a lyrics track to a digital audio track and ADPCM data added at the end. When the sequencer 23B inputs MIDI data for tone generator performance to the tone generator processor 23C, it is converted into musical tone information there. Further, the sequencer 23B adds the ADPCM data to the AD
When the data is output to the processor 66, it is decompressed into data before being compressed. The sequencer 23B controls the expansion timing of the AD processor 66 according to various event information.

【0043】通常のMIDIデータ1トラックの構成
は、図9に示すように、トップオブトラックTOTから
始まりエンドオブトラックEOTで終わるまでの間に、
イベントEVENTとデュレイション(待ち時間)Δt
が交互に配列されているので、シーケンサ23Bによる
処理は図中の矢印のように、循環しながら行われる(但
し、各イベントEVENTの内容は異なる)。
As shown in FIG. 9, the structure of one track of normal MIDI data is as follows: from the top of the track TOT to the end of the track EOT.
Event EVENT and duration (waiting time) Δt
Are alternately arranged, the processing by the sequencer 23B is performed in a circulating manner as shown by arrows in the figure (however, the content of each event EVENT is different).

【0044】これに対し、図5のようにADPCMデー
タを付加したトラックの場合は、図10のように、MI
DIイベントの実行と並行してADPCMイベントが実
行される。ADPCMイベントを実行するタイミング
は、MIDIデータ内に記述されているので、両者はソ
フト的に同期して実行される。ADPCMイベントに含
まれる内容は、1)ADPCM音の番号、2)ピッチシ
フトの有効/無効フラグ、3)ボリューム、4)ピッチ
シフト量である。
On the other hand, in the case of the track to which the ADPCM data is added as shown in FIG. 5, the MI as shown in FIG.
The ADPCM event is executed in parallel with the execution of the DI event. Since the timing of executing the ADPCM event is described in the MIDI data, the both are executed in software in synchronization. The contents included in the ADPCM event are 1) ADPCM sound number, 2) pitch shift valid / invalid flag, 3) volume, and 4) pitch shift amount.

【0045】ここで想定するADPCMデータは、演奏
曲中の波形データであり、圧縮してはいても依然として
MIDIデータに比べればデータ量が多い。しかし、バ
ックコーラスに限れば、1つの曲の中で同じバックコー
ラスを単に転調して繰り返すだけの部分もある。そこ
で、あらかじめ複数のバックコーラスに共用できる部分
を独立した複数のADPCMデータとして用意し、演奏
曲再生時にその曲に含まれるバックコーラス再生に必要
なADPCMデータを選択して合成する。この様にする
と、ホスト局からのデータ転送量が低下し、また記憶容
量も少なくて済む。1)のADPCM音の番号は、この
様な複数のADPCMデータの中から希望するものを選
択するためのものである。
The ADPCM data assumed here is waveform data during a musical composition, and even if it is compressed, the data amount thereof is still larger than that of MIDI data. However, as far as the back chorus is concerned, there is also a part in which the same back chorus is simply transposed and repeated in one song. Therefore, a portion that can be shared by a plurality of back choruses is prepared in advance as a plurality of independent ADPCM data, and at the time of reproducing the performance music, the ADPCM data necessary for the back chorus reproduction included in the music is selected and combined. In this way, the amount of data transferred from the host station is reduced and the storage capacity is also small. The ADPCM sound number of 1) is for selecting a desired one from a plurality of such ADPCM data.

【0046】同じADPCMデータをピッチを変更して
使用する場合は、どの程度音程をずらせば良いかを示す
必要がある。4)のピッチシフト量がこの変更量を示す
情報になる。ピッチシフトは図4のピッチシフタ67で
行われる。ピッチシフタ67はカラオケプロセッサ(K
P)と呼ばれるDSPを用いて構成され、部分的に音程
をずらす転調に限らず、ユーザの操作により1曲全てを
移調(トランスポーズ)する場合にも使用される。この
場合、ピッチシフトは、トランスポーズにさらに足し込
む形で行われる。
When the same ADPCM data is used by changing the pitch, it is necessary to show how much the pitch should be shifted. The pitch shift amount of 4) becomes information indicating this change amount. The pitch shift is performed by the pitch shifter 67 shown in FIG. The pitch shifter 67 is a karaoke processor (K
It is configured by using a DSP called P), and is used not only for the transposition in which the pitch is partially shifted, but also in the case of transposing all one piece of music by the user's operation. In this case, the pitch shift is performed by adding to the transpose.

【0047】ADPCMデータはバックコーラスだけで
なく、効果音等の波形データにも使用される。2)のピ
ッチシフトの有効/無効は、ADPCMデータの中でピ
ッチシフトすると不自然になる効果音等のピッチシフト
を避けるためのもので、ユーザがトランスポーズの指定
を行っても、そのADPCMデータの再生に限ってはピ
ッチシフトは行われないようにするフラグである。ま
た、3)のボリュームは各イベント毎の音量を自動設定
するためのものである。
The ADPCM data is used not only for the back chorus but also for waveform data such as sound effects. The valid / invalid of pitch shift of 2) is to avoid pitch shift of sound effects that become unnatural in ADPCM data even if the user specifies transpose, even if the user specifies transpose. This flag is a flag that prevents the pitch shift from being performed only in the reproduction of. The volume 3) is for automatically setting the volume for each event.

【0048】(04)汎用コーラス/フレーズコーラス 演奏曲のバックコーラスには、a)「わー」「らー」
「あー」のような子音に付随する母音を延ばした様な単
純な発音で、同じ曲の中で何回も繰り返されたり、或い
は複数の演奏曲で共通できるコーラス、例えば「わーわ
ーわー…」或いは「わっわっわっ…」のような汎用コー
ラスと、b)「ながさきー」の様にその演奏曲固有のフ
レーズコーラスとがある。音源カラオケ装置では、単純
な発音の組み合わせである汎用コーラスを楽音の1種と
して扱い、音源を用いて発音することが可能である。こ
の様にすると、バックコーラスのデータ量を削減するこ
とができるので、オンライン通信の時間を短縮したり、
記憶容量を削減することができる。
(04) General backing chorus / phrase The back chorus of the song is a) "Wow""La".
It has a simple pronunciation like a vowel that accompanies a consonant such as "ah", and can be repeated many times in the same song, or a chorus that can be shared by multiple songs, such as "wow wow. There is a general-purpose chorus such as "..." or "Wowwawwa ...", and a phrase chorus peculiar to the performance song such as b) "Nagasaki". In the sound source karaoke device, it is possible to treat a general-purpose chorus, which is a combination of simple pronunciations, as one type of musical sound, and to pronounce using a sound source. By doing this, the amount of back chorus data can be reduced, so that the time for online communication can be shortened,
The storage capacity can be reduced.

【0049】図11を参照して、具体的な説明をする。
1)汎用コーラスデータE1については、「わー」「ら
ー」「あー」のような発音の波形をあらかじめサンプリ
グしし、その波形データをライブラリとして音源側に記
憶させておく。2)フレーズコーラスデータE2につい
ては、その曲毎に録音した「ながさきー」のような発音
の波形データをHDD22C等に格納しておき、演奏デ
ータと同時にRAM62にロードする。3)フレーズコ
ーラスデータE2は、演奏データに含まれるフレーズタ
イミングデータE3に基づいて発音するように制御す
る。汎用コーラスデータE1については、MIDI等の
音源コントロールデータE4に基づいて発音するように
制御する。両者はセレクタ80によりどちらか一方が選
択され(場合によって両方同時に)発音される。このセ
レクタ80部分の機能はオア論理でも良い。4)いずれ
のコーラスデータE1,E2も、音源から発音される他
の楽曲データとミックスして出力される。
A specific description will be given with reference to FIG.
1) Regarding the general-purpose chorus data E1, waveforms with pronunciations such as “Wa”, “La”, and “Ah” are sampled in advance, and the waveform data is stored as a library on the sound source side. 2) With respect to the phrase chorus data E2, waveform data of a pronunciation such as "Nagasaki" recorded for each song is stored in the HDD 22C or the like and loaded into the RAM 62 at the same time as the performance data. 3) The phrase chorus data E2 is controlled to sound based on the phrase timing data E3 included in the performance data. The general-purpose chorus data E1 is controlled to sound based on sound source control data E4 such as MIDI. Either of them is selected by the selector 80 (in some cases, both are sounded simultaneously). The function of the selector 80 portion may be OR logic. 4) Both of the chorus data E1 and E2 are mixed with other music data generated by the sound source and output.

【0050】(05)ADPCMデータ圧縮 バックコーラスデータはデータ量が多い。そこで、ホス
ト局30側でこのバックコーラスデータを圧縮し、カラ
オケ装置側で伸長することを考える。圧縮方式は任意で
あるが、例えば、ADPCMを採用した場合、カラオケ
装置側では、これをADプロセッサ66で伸長する。こ
の場合、バックコーラスデータとしては、汎用コーラス
データを含めて扱っても良いが、ここではフレーズコー
ラスデータだけを考える。
(05) ADPCM data compression The back chorus data has a large amount of data. Therefore, consider that the back chorus data is compressed on the host station 30 side and expanded on the karaoke device side. Although the compression method is arbitrary, for example, when ADPCM is adopted, the karaoke apparatus expands the AD processor 66. In this case, general chorus data may be included as the back chorus data, but only the phrase chorus data will be considered here.

【0051】ホスト局側では、フレーズコーラスデータ
をディジタルサンプリングした後、そのデータを圧縮す
る。この場合、周波数の圧縮は、元のデータに対しリサ
ンプリング処理をし、リサンプリングの周波数をファイ
ル(曲データ)のヘッダに記述しておく。また、ビット
数の圧縮はADPCM等の技法を用いて行い、その圧縮
情報を同じくヘッダに記述しておく。一例を上げると、
通常のコンパクトディスクのデータは44.1K、16
ビットのサンプリングレートであるが、これを例えば2
2.05K、4ビット、または11.025K、4ビッ
トのADPCMデータに圧縮する。
On the host station side, the phrase chorus data is digitally sampled and then compressed. In this case, for frequency compression, resampling processing is performed on the original data, and the resampling frequency is described in the header of the file (music data). The compression of the number of bits is performed by using a technique such as ADPCM, and the compression information is also described in the header. To give an example,
Normal compact disk data is 44.1K, 16
It is the bit sampling rate, which can be set to 2
Compress to 2.05K, 4-bit, or 11.025K, 4-bit ADPCM data.

【0052】カラオケ装置側では、図12に示すよう
に、ADプロセッサ66のセレクタ66Aに入力した圧
縮データe2は、圧縮方法とリサンプリング周波数を記
述したデータ変換情報E6に従って伸長される。即ち、
変換情報E6に従ってビット数変換器66Bのうち1つ
が選択され、また周波数変換器66Cの変換周波数が決
定される。この様にして伸長されたフレーズデータE2
はミキサ13において他の発音とミックスされる。
On the karaoke machine side, as shown in FIG. 12, the compressed data e2 input to the selector 66A of the AD processor 66 is expanded according to the data conversion information E6 which describes the compression method and the resampling frequency. That is,
One of the bit number converters 66B is selected according to the conversion information E6, and the conversion frequency of the frequency converter 66C is determined. Phrase data E2 expanded in this way
Are mixed with other pronunciations in the mixer 13.

【0053】この様な圧縮技術を用いると、オンライン
で転送するデータ量が削減され、またHDD22Cに記
憶する容量も少なくて済む。変換情報E6は1曲を通し
て同じものが適用されるように設定しても良い。この場
合、変換情報E6は図5の曲ヘッダの中に記述される。
この変換情報E6をフレーズ毎に設定することもでき
る。フレーズ毎に設定する場合には、ディジタル音声ト
ラック中の分割データ毎にヘッダを設定し、そのヘッダ
内に記述する。フレーズ毎に変換情報を設定すると、同
じ曲の中で部分的に圧縮率を変化させ、例えば、重要な
部分については、他の部分に比べて高いサンプリングレ
ートと多いビット数で圧縮する、というな自由度が生ま
れる。
By using such a compression technique, the amount of data to be transferred online can be reduced, and the capacity to be stored in the HDD 22C can be reduced. The conversion information E6 may be set so that the same information is applied throughout one song. In this case, the conversion information E6 is described in the song header of FIG.
This conversion information E6 can be set for each phrase. In the case of setting for each phrase, a header is set for each divided data in the digital audio track, and it is described in the header. When conversion information is set for each phrase, the compression rate is partially changed in the same song, and for example, important parts are compressed with a higher sampling rate and a larger number of bits than other parts. Freedom is born.

【0054】(06)ピッチコントロール 図4の構成では、ADプロセッサ66の出力はピッチシ
フタ67に入力し、ここで音程情報に従い音高調整(ピ
ッチシフト)が行われる。音高調整には、曲の途中で一
部の音程を変える転調や、曲全体を一律にシフトする移
調(トランスポーズ)がある。ここでは、同じフレーズ
データE2をピッチを変えながら使用するバックコーラ
ス、例えば「ながさきー」という発音が、連続して音程
を上げながら繰り返されるようなバックコーラスを、ピ
ッチシフタ67で実現することを考える。
(06) Pitch Control In the configuration shown in FIG. 4, the output of the AD processor 66 is input to the pitch shifter 67, where pitch adjustment (pitch shift) is performed according to the pitch information. Pitch adjustment includes transposition, which changes a part of the pitch in the middle of a song, and transpose, which uniformly shifts the entire song. Here, it is considered that the pitch shifter 67 realizes a back chorus in which the same phrase data E2 is used while changing the pitch, for example, a back chorus in which the pronunciation "Nagasaki" is repeated while continuously increasing the pitch.

【0055】図13に示すように、外部から入力された
音程情報E5はピッチシフタ67と音源コントロールE
4に入力され、バックコーラスデータはピッチシフタ6
7で、楽音は音源コントロールE4において音高制御が
行われる。また、1曲の中で転調が生じた時など同じコ
ーラスフレーズで音程の異なったコーラスデータの場
合、音源コントロールからピッチシフタへ転調情報が送
られ、コーラスデータの音程が変更される。
As shown in FIG. 13, the pitch information E5 input from the outside corresponds to the pitch shifter 67 and the sound source control E.
4 and the back chorus data is input to the pitch shifter 6
At 7, the musical tone is pitch-controlled by the tone generator control E4. Further, in the case of chorus data having different pitches with the same chorus phrase such as when a transposition occurs in one song, transposition information is sent from the sound source control to the pitch shifter, and the pitch of the chorus data is changed.

【0056】(06-2)効果音のピッチシフト除外 ピッチシフタ67の入力には、バックコーラスデータだ
けでなく、効果音も含まれる。効果音がピッチシフトさ
れると、全くその音響効果が損なわれ、逆に違和感を生
ずるケースが多い。そこで、前述のピッチシフト有効/
無効のフラグを参照し、この効果音については、音程情
報E5が入力されても、同じ音程を保つようにする。
(06-2) Pitch shift exclusion of sound effects Inputs to the pitch shifter 67 include not only back chorus data but also sound effects. When the sound effect is pitch-shifted, its acoustic effect is completely impaired, and on the contrary, a sense of discomfort is often generated. Therefore, the pitch shift effective /
With reference to the invalid flag, the same pitch is maintained for this sound effect even if the pitch information E5 is input.

【0057】(06-3)コーラスデータの遅れ補償 コーラスデータは発音指示を受けてから、ミキサエフェ
クタ68に出力されるまでに前述のようなBit変換、
周波数変換、ピッチシフタを通るために遅れが生ずる。
例えば、仕様上、30ms±30msの遅れがあるとさ
れるピッチシフタを用いてリアルタイムの、特にMID
I音源側出力と同期した音響出力を得るためには、シー
ケンサにおけるコーラスデータの発音指示データを同時
に発音されるべき音源のデータより例えば30ms程度
先行させて記憶させておき、それを読み出すに当って、
先行して発音指示をADPCMプロセッサ66に出力
し、遅れを相殺するようにしている。
(06-3) Delay Compensation of Chorus Data The chorus data is subjected to the bit conversion as described above from the time when the sounding instruction is received to the time when it is output to the mixer effector 68.
Delay occurs due to passing through frequency conversion and pitch shifter.
For example, by using a pitch shifter that is specified to have a delay of 30 ms ± 30 ms in real time, especially MID.
In order to obtain an acoustic output synchronized with the output of the I sound source, the pronunciation instruction data of the chorus data in the sequencer is stored 30 minutes ahead of the data of the sound source to be simultaneously pronounced and stored, and then read out. ,
A sounding instruction is output to the ADPCM processor 66 in advance so as to cancel the delay.

【0058】また、シーケンサ23Bは、ピッチシフタ
67のシフト量をコントロールしたり、さらにはマイク
エフェクタ69や音場創生器70を全て演奏曲の進行に
同期してコントロールする。図14は、この説明図であ
る。エフェクタミキサ68は、音源プロセッサ23Cの
出力(例えば、発音ch1はギター,ch2はピアノ,
ch3はバイオリン,…)とピッチシフタ67の出力
(ADPCMトラックに対応した伸長データ)を入力さ
れ、入力段のプログラマブルエフェクタ68Aでシーケ
ンサから出力される指定データに基づいて選択されたチ
ャンネルの信号が、エコー、イコライザ、リバーブ等の
音響効果を与える処理部68Bに入力してそれぞれの処
理を受ける。
The sequencer 23B controls the shift amount of the pitch shifter 67, and further controls the microphone effector 69 and the sound field generator 70 in synchronization with the progress of the musical composition. FIG. 14 is an explanatory diagram of this. The effector mixer 68 outputs the sound of the sound source processor 23C (for example, sounding ch1 is a guitar, ch2 is a piano,
ch3 is input with the output of the pitch shifter 67 (expansion data corresponding to the ADPCM track), and the signal of the channel selected based on the specified data output from the sequencer by the programmable effector 68A at the input stage is echoed. , Equalizer, reverb, etc. are applied to the processing unit 68B for providing acoustic effects to receive respective processing.

【0059】エフェクタミキサ68の出力は、音場創成
器70に入力され、ここでシーケンサ23Bからのコン
トロール信号により、演奏に併せた音場制御を受ける。
音場創成器70は、入力信号を基準に遅延量及びレベル
の異なる複数の反射波をデジタル的に生成し、それらを
合成することで、あたかもコンサートホールやライブ会
場等で聞いているような音場の広がりを与えるプロセッ
サである。音場創成器70を用いる場合、スピーカ15
は複数システムである方が効果的で、例えば前後左右の
4スピーカに加え、前方中央、中央左右にもそれぞれス
ピーカを配置して、全体として6〜7スピーカシステム
を構成する。
The output of the effector mixer 68 is input to the sound field generator 70, where it is subjected to sound field control according to the performance by the control signal from the sequencer 23B.
The sound field generator 70 digitally generates a plurality of reflected waves having different delay amounts and levels based on the input signal, and synthesizes them to produce a sound as if being heard in a concert hall or a live venue. It is a processor that gives a wider space. When using the sound field generator 70, the speaker 15
It is more effective to use a plurality of systems. For example, in addition to the front, rear, left, and right 4 speakers, the speakers are arranged in the front center and the center left and right, respectively, to form a 6 to 7 speaker system as a whole.

【0060】この音場創成器70には、必ずしもその必
要はないが、マイクエフェクタ69の出力も導入され
る。この場合マイクエフェクタ69はマイク14からの
入力に対しても、モノラルからステレオへの変換、エコ
ー、エキサイタ、ハーモナイザ、イコライザ等の音響効
果処理をする。シーケンサ23Bはマイクエフェクタ6
9に対してもコントロール信号を送り、その音響効果を
演奏に同期して制御する。シーケンサ23Bからのコン
トロール信号は、RAM62から読みだされたシーケン
スデータ内の1トラックとして構成される、音場制御
用、エフェクト制御、画像処理、照明処理、舞台制御等
の各コントロール信号であり、これらは演奏のデータと
同様にシーケンサ23Bで読み出され、楽音演奏と同期
して制御される。
The output of the microphone effector 69 is also introduced into the sound field generator 70, though not necessarily required. In this case, the microphone effector 69 also performs sound effect processing such as conversion from monaural to stereo, echo, exciter, harmonizer, equalizer, etc. even for input from the microphone 14. The sequencer 23B is a microphone effector 6
A control signal is also sent to 9 to control the sound effect in synchronization with the performance. The control signal from the sequencer 23B is each control signal for sound field control, effect control, image processing, lighting processing, stage control, etc., which is configured as one track in the sequence data read from the RAM 62. Is read by the sequencer 23B in the same manner as the performance data, and is controlled in synchronization with the musical tone performance.

【0061】(07)予約曲の情報表示 通常のカラオケ装置では、演奏曲の予約操作をしたと
き、モニタにはその曲の曲番号しか表示されない。この
ため、実際に演奏が開始されるまで、リクエストの誤り
に気がつかないことが多い。この点を改善するために、
図15に示すように、HDD22C内に表示情報辞書を
設定し、曲番号が指定されたら、その曲番号、曲名、作
曲者名、作詞者名、予約順位等をモニタ12に表示し、
表示された曲名から、また同じ曲名であれば歌手名、作
曲者名等から事前にリクエスト曲の確認ができるように
する。表示する箇所は、現在演奏中の曲へ障害とならな
いように、例えば、画面の右上等を選択する。
(07) Information Display of Reserved Music In a usual karaoke apparatus, when the reserved operation of the performance music is performed, only the music number of the music is displayed on the monitor. Therefore, it is often the case that the request error is not noticed until the performance is actually started. To improve this point,
As shown in FIG. 15, when the display information dictionary is set in the HDD 22C and the song number is designated, the song number, song name, composer name, lyricist name, reservation order, etc. are displayed on the monitor 12,
The requested song can be confirmed in advance from the displayed song name, and if the song name is the same, the singer name, composer name, and the like. The location to be displayed is selected, for example, in the upper right corner of the screen so as not to hinder the currently playing music.

【0062】この様なリクエスト内容の確認は、楽音合
成型音源カラオケのように、ホスト局から曲データを取
り込む場合に、不要なアクセスを未然に回避する上で必
要である。また、LDカラオケであっても、選曲ミスは
良くあるので、これを回避するためにも有用である。
Such confirmation of the request contents is necessary for avoiding unnecessary access when music data is fetched from the host station as in the case of musical tone synthesis type sound source karaoke. In addition, even in LD karaoke, a mistake in selecting a song is common, and it is useful for avoiding this.

【0063】(08)自動トランスポーズ トランスポーズに関しては、ユーザが自分の歌い易い音
域を指定すると、カラオケ装置側で自動的に最適なトラ
ンスポーズ値を決定し、演奏を行うような自動化を行っ
ている。具体的には、カラオケ曲毎に最も出現頻度の高
い音域を曲データのヘッダ部等に記録しておき、ユーザ
が自分の声域の中央値または範囲(上限、下限)を指定
すると、カラオケ装置は、指定された声域の中央値、ま
たは範囲の中央値がカラオケ曲の音域の中央値と一致す
るようにトランスポーズ値をセットし、自動的に移調を
行う。
(08) Automatic transpose With regard to transpose, when the user specifies a range in which he can easily sing, the karaoke device automatically determines an optimum transpose value and performs an automatic performance such as playing. There is. Specifically, the karaoke device records the highest-frequency range for each karaoke song in the header portion of the song data, and when the user specifies the median value or range (upper and lower limits) of his or her vocal range, the karaoke device , The transpose value is set so that the specified median value of the vocal range or the median value of the range matches the median value of the musical range of the karaoke piece, and transposition is automatically performed.

【0064】カラオケ曲の音域の中央値としては、例え
ば図16に示すように、音高毎の発音数、または発音数
と発音長の積の分布曲線を求め、その分布曲線を適当な
しきい値でスライスする事で得られる局部的音域の中間
値を使用する。この中央値情報は、曲データのヘッダの
中に含ませておく。カラオケ曲を歌い易くする自動トラ
ンスポーズには種々の方法があるが、この例のように曲
の音域の中央値を歌い手の声域の中央値に一致させると
いう方法は、その曲に最も高い頻度で現れる部分が歌い
易ければ、全体も歌い易くなるという考えに基づく。
As the median value of the range of karaoke songs, for example, as shown in FIG. 16, a distribution curve of the number of pronunciations for each pitch or the product of the number of pronunciations and the pronunciation length is obtained, and the distribution curve is set to an appropriate threshold value. Use the intermediate value of the local range obtained by slicing with. This median value information is included in the header of the music data. There are various methods of automatic transposition that make it easier to sing a karaoke song, but the method of matching the median range of the song with the median range of the singer's voice as in this example has the highest frequency with the song. Based on the idea that if the part that appears is easy to sing, the whole part will be easy to sing.

【0065】適用するカラオケ装置が、音源カラオケ装
置である場合は、図17のように、曲データメモリ10
0(HDD22Cでよい)から曲音域の中央値を読み出
して使用する。101はCPU61で実行するプログラ
ムを格納したROMである。また、図18のように、C
DG/CDIの様なディジタル記憶媒体を使用するカラ
オケ装置では、CDG/CDI等のデバイス102に音
域データを書き込んでおき、それを曲番号で読み出して
使用する。更に、図19のように、LDのようにディジ
タルデータが読み出しできないカラオケ装置では、音域
データ記憶装置103を設け、これを利用する。この記
憶装置103は、HDD22Cの一部でよい。
When the applied karaoke apparatus is a sound source karaoke apparatus, as shown in FIG.
The median value of the musical range is read from 0 (which may be the HDD 22C) and used. Reference numeral 101 is a ROM storing a program executed by the CPU 61. Also, as shown in FIG.
In a karaoke apparatus that uses a digital storage medium such as DG / CDI, range data is written in the device 102 such as CDG / CDI, and the tune number is read and used. Further, as shown in FIG. 19, in a karaoke device such as an LD in which digital data cannot be read, a range data storage device 103 is provided and used. The storage device 103 may be a part of the HDD 22C.

【0066】(09)MIDI楽器接続 図4のカラオケシステムには、カラオケ演奏中に外部の
MIDI楽器42(例えば、パーカッション)から楽器
音や効果音等を発音できるように、MIDI楽器42を
接続する入力端子、即ちMIDIインターフェース64
を設けてある。このMIDIインターフェース64から
入力する外部MIDIデータはCPU61によって取り
込まれ、シーケンサ23Bに供給される。そして、外部
楽器専用の音源を設けずに、カラオケ用の音源の1チャ
ンネル(外部楽器用発音ch)を使用して楽器音等を発
生する。このために、カラオケ用の音源プロセッサ23
Cは全チャンネル、例えば16チャンネル(2系統あれ
ば32チャンネル)の内の1チャンネルを外部MIDI
楽器用に空けておくように予めカラオケ楽曲のデータを
作成しておく必要がある。或いは、CPUがインターフ
ェース64から受信した外部MIDIデータを音源に出
力する際、そのとき演奏データで使用されていないMI
DIチャンネルに強制的に切換えるようにしても良い。
(09) MIDI instrument connection The MIDI instrument 42 is connected to the karaoke system of FIG. 4 so that an external MIDI instrument 42 (for example, percussion) can produce instrument sounds, sound effects, etc. during karaoke performance. Input terminal, MIDI interface 64
Is provided. The external MIDI data input from the MIDI interface 64 is taken in by the CPU 61 and supplied to the sequencer 23B. Then, without providing a sound source dedicated to the external musical instrument, a musical instrument sound or the like is generated using one channel of the karaoke sound source (external musical instrument sounding ch). For this purpose, the sound source processor 23 for karaoke
C is an external MIDI for all channels, for example, 1 channel out of 16 channels (32 channels if there are 2 systems)
It is necessary to create data for karaoke songs in advance so as to leave space for musical instruments. Alternatively, when the CPU outputs the external MIDI data received from the interface 64 to the sound source, the MI that is not used in the performance data at that time.
It is also possible to forcibly switch to the DI channel.

【0067】(09-2)MIDIマージ MIDIデータは、ステータスバイトで始まり、これに
データバイトが続く8ビットのストリームデータである
ため、RAM62から読み出されたカラオケ演奏用のM
IDIデータに対し、インターフェース64から非同期
に入力した楽器用のMIDIデータが衝突すると、デー
タ破壊が生ずる。この点を回避するために、演奏用MI
DIデータが流れているときに、外部から楽器用のMI
DIデータが入力するときは、前者のデータバイトが終
了するまで後者の転送を遅らせる等して、両者の衝突を
避けるマージが必要になる。
(09-2) MIDI merge MIDI data is 8-bit stream data that starts with a status byte and is followed by a data byte. Therefore, M data for karaoke performance read from the RAM 62.
When the MIDI data for musical instruments, which is asynchronously input from the interface 64, collides with the IDI data, data destruction occurs. In order to avoid this point, performance MI
When DI data is flowing, MI for musical instruments is externally supplied.
When DI data is input, the latter transfer is delayed until the former data byte is completed, and merge is required to avoid collision between the two.

【0068】(10)コード名表示 通常のカラオケ装置では、モニタに演奏中の曲の歌詞を
順番に表示するが、音程情報は表示しない。MIDI楽
器42を接続して演奏するユーザにとって、モニタ12
に例えばコード名が表示されると、楽器演奏(例えば、
ギター演奏)がし易くなる。このコード名表示を歌詞表
示に対応させて行うと、なおさら便利である。図20
(a)は、歌詞(「ほにゃら…」)に併せて、コード名
(C,F,G7…)をモニタ12に表示している例であ
る。同図(b)は同じ曲がトランスポーズされた場合、
自動的にシフト量(この例では、+1)に連動してコー
ド名をシフト(C#,F#,G7#…)して表示した例
である。
(10) Chord name display In a normal karaoke device, the lyrics of the song being played are displayed in order on the monitor, but the pitch information is not displayed. For the user who connects and plays the MIDI musical instrument 42, the monitor 12
For example, when the chord name is displayed in
It becomes easier to play the guitar). It would be even more convenient if this code name display were made to correspond to the lyrics display. Figure 20
(A) is an example in which the chord name (C, F, G7 ...) Is displayed on the monitor 12 in addition to the lyrics ("Honyara ..."). In the same figure (b), when the same song is transposed,
In this example, the code name is automatically shifted (C #, F #, G7 # ...) In association with the shift amount (+1 in this example).

【0069】コード名表示の実現には、次のような方法
が考えられる。先ず、曲データのヘッダ部に次のような
「キー」を記録しておく。 (C,C#,Db,D,D#,Eb,E,...A#,Bb,B)+major/minor これをトランスポーズしたときのコード名の決定に使用
する(#系か他の系か)。音源カラオケでの歌詞の表示
データは「表示イベント」と「デュレイション(Duratio
n)」の繰り返しである。表示イベントは、表示座標x,
y、アトリビュート、表示文字列、表示時間、色変えタ
イミングを示し、デュレイションは、表示イベント間の
時間を示す。
The following method can be considered for realizing the code name display. First, the following "key" is recorded in the header part of the music data. (C, C #, Db, D, D #, Eb, E, ... A #, Bb, B) + major / minor Used to determine the code name when transposing this (# system or another system? ). The display data of the lyrics in the sound source karaoke is "display event" and "duration (Duratio
n) ”is repeated. The display event is the display coordinate x,
y, an attribute, a display character string, a display time, and a color change timing are shown, and a duration shows a time between display events.

【0070】表示する歌詞の文字列と表示座標、表示ア
トリビュート(色指定)で歌詞を表示させ、「色変えタ
イミング」に従って演奏に同期した歌詞の色変えを行
う。一方、歌詞を表示させてから「表示時間」が経過し
たら、その歌詞を消去する。デュレイションを挟まずに
表示イベントを連続して記述した場合は同時に表示す
る。
The lyrics are displayed by the character string of the lyrics to be displayed, the display coordinates, and the display attribute (color designation), and the lyrics color is changed in synchronization with the performance in accordance with the "color change timing". On the other hand, when the "display time" has elapsed after displaying the lyrics, the lyrics are deleted. If the display events are described consecutively without sandwiching the duration, they are displayed simultaneously.

【0071】「表示文字列」には文字コード、ルビ文字
指定、文字間ピッチの指定が含まれる。文字コードにE
UCコードを使用する場合は、「表示文字列」は次のよ
うに表現される(0xXXは16進数を表す)。 文字コード 1バイト文字 :0xXX..0x7e 2バイト文字 :0xa0..0xf4(2バイト目は0xa0から0xff) 文字間スペース:0x01..0x1f ルビ :0xfe ルビを振られる文字列 0x00 ルビ文字列 0x00
The "display character string" includes a character code, ruby character designation, and character pitch designation. E for character code
When the UC code is used, the "display character string" is expressed as follows (0xXX represents a hexadecimal number). Character code 1-byte character: 0xXX..0x7e 2-byte character: 0xa0..0xf4 (2nd byte is 0xa0 to 0xff) Space between characters: 0x01..0x1f Ruby: 0xfe Ruby character string 0x00 Ruby character string 0x00

【0072】以上のデータ構造を拡張すると、次のよう
なデータ構造の和音コードの表示が可能になる。 第1バイト:和音コードID(0xFF) 第2バイト:キー bit 0..3:= 0:C 1:D 2:E 3:F 4:G 5:A 6:B bit 4..5:= 0: - 1:# 2:b bit 7 := 0:major 1:minor (例:C major =0xXX, Ab minor = 0xa5) 第3バイト:装飾記号 0:Major code(装飾記号なし) 1:7th 2:6th 3:Diminish 4:sus4 5:7th sus4…
By expanding the above data structure, it becomes possible to display a chord code having the following data structure. 1st byte: chord chord ID (0xFF) 2nd byte: key bit 0..3: = 0: C 1: D 2: E 3: F 4: G 5: A 6: B bit 4..5: = 0:-1: # 2: b bit 7: = 0: major 1: minor (Example: C major = 0xXX, Ab minor = 0xa5) 3rd byte: Decoration code 0: Major code (no decoration code) 1: 7th 2: 6th 3: Diminish 4: sus4 5: 7th sus4 ...

【0073】一例を挙げると、次のようになる。 C7 := 0xff,0x00,0x01 Am6 := 0xff,0xa5,0x02 F#m7 := 0xff,0x93,0x01 Dsus4 := 0xff,0x01,0x04An example is as follows. C7: = 0xff, 0x00,0x01 Am6: = 0xff, 0xa5,0x02 F # m7: = 0xff, 0x93,0x01 Dsus4: = 0xff, 0x01,0x04

【0074】トランスポーズ指定がないときは、上記の
通りの表示を行うが、トランスポーズ指定がある場合は
次の3つの値から、表示するコード名を決定する。 a)和音コードデータの第2バイトのキーの値 b)トランスポーズの値 c)ヘッダに記録してある曲のキー
When the transpose is not specified, the above display is performed. When the transpose is specified, the code name to be displayed is determined from the following three values. a) Key value of the second byte of chord chord data b) Transpose value c) Key of the song recorded in the header

【0075】一例を挙げると、次のようになる。 曲のキー : C major 和音 : G トランスポーズ: +1 表示: G# 他の例としては、次のようになる。 曲のキー : A minor 和音 : G トランスポーズ: +1 表示: AbAn example is as follows. Song key: C major Chord: G Transpose: +1 Display: G # Another example is as follows. Song key: A minor Chord: G Transpose: +1 Display: Ab

【0076】(10-2)マイナスワン演奏 演奏トラックで使用される音源のチャンネル毎に楽器名
(音色)を記憶しておく。例えば、チャンネル1はピア
ノ、チャンネル2はギター、…のようにである。そし
て、MIDI楽器42が接続され音色が指定されると、
その音色のデータを音源に送らない等して楽音演奏しな
いようにする。この様にすると、MIDI楽器42の演
奏者は、あたかもその演奏曲の一部パートを受け持つよ
うにして、楽器演奏を楽しむことができる。
(10-2) Minus One Performance A musical instrument name (timbre) is stored for each channel of the sound source used in the performance track. For example, channel 1 is a piano, channel 2 is a guitar, and so on. Then, when the MIDI musical instrument 42 is connected and the tone color is designated,
Do not play the musical tone by not sending the tone color data to the sound source. In this way, the player of the MIDI musical instrument 42 can enjoy playing the musical instrument as if playing a part of the musical piece.

【0077】(11)3重画像インポーズ モニタ12に表示する画像は、最大で3重にスーパーイ
ンポーズすることができる。図21を参照して一例を説
明すると、第1は、図4のLDチェンジャ11から出力
される動画の背景画像信号(外部映像信号)video
0である。第2は、コンピュータ画面生成装置302
(図4の23D1)から出力される静止画の背景画像信
号video1である。第3は、コンピュータ画面生成
装置303(図4の23D2)から出力される歌詞画像
信号video2である。2つの画面生成装置302,
303はビデオRAM(VRAM)を独立して持ち、信
号YS1,YS2によってイメージ空間の全ての点で透
明指定を行うことができるので、3画面を一部または全
部組み合わせて任意に合成することができる。
(11) Triple image The image displayed on the imposing monitor 12 can be superimposed on the triple image at maximum. An example will be described with reference to FIG. 21. First, a background image signal (external video signal) video of a moving image output from the LD changer 11 of FIG.
It is 0. Second, the computer screen generation device 302
This is the background image signal video1 of the still image output from (23D1 in FIG. 4). The third is the lyrics image signal video2 output from the computer screen generation device 303 (23D2 in FIG. 4). Two screen generation devices 302,
Reference numeral 303 has a video RAM (VRAM) independently, and it is possible to specify transparency at all points of the image space by the signals YS1 and YS2. .

【0078】通常のカラオケ装置には、1)LD等に記
録された動画の背景画像にコンピュータで生成された歌
詞画像をスーパーインポーズする方式と、2)コンピュ
ータで生成された静止画の背景画像に同じくコンピュー
タで生成された歌詞画像をスーパーインポーズする方式
とがある。1)の方式では、LD等の記録媒体に制限が
ある場合、同じ背景画像を異なる演奏曲に使用すること
があり、おもしろみに欠けることもある。2)の方式
は、背景画像が静止画であるため、1)の方式より更に
画面表現が単調になる。これに対し、この発明のよう
に、動画の背景画像の上に、小面積の静止画像を重ねて
表示し、更にその上に歌詞画像を重ねて表示する様にす
れば、最大3重のスーパーインポーズ可能となり、少量
の動画情報しか用いなくとも画面表現が多彩なものとな
る。
In a normal karaoke apparatus, 1) a method of superimposing a computer generated lyrics image on a background image of a moving image recorded on an LD or the like, and 2) a background image of a still image generated by a computer. Similarly, there is a method of superimposing computer generated lyrics images. In the method 1), when the recording medium such as an LD is limited, the same background image may be used for different musical pieces, which may be uninteresting. In the method 2), since the background image is a still image, the screen expression becomes more monotonous than the method 1). On the other hand, as in the present invention, if a still image of a small area is overlaid and displayed on the background image of the moving image, and further the lyrics image is overlaid and displayed thereon, a superimposition of three layers at maximum is possible. Imposing is possible, and even if only a small amount of moving image information is used, the screen expression can be varied.

【0079】画面生成装置302,303の出力vid
eo1,video2は、高速スイッチを用いた切替装
置306で合成される。307は切替装置306で必要
な切替信号を生成する切替信号生成装置である。切替装
置306の出力はスーパーインポーズ装置310(図4
の23E)で更に外部映像信号video0と合成され
る。311は高速スイッチを用いたスーパーインポーズ
装置310で必要な切替信号を生成する切替信号生成装
置である。このスーパーインポーズ装置310は、外
部、内部ともにそれぞれRGB,NTSCの組み合わせ
がある。
Output vid of the screen generation devices 302 and 303
eo1 and video2 are combined by the switching device 306 using a high-speed switch. A switching signal generation device 307 generates a necessary switching signal in the switching device 306. The output of the switching device 306 is the superimposing device 310 (see FIG.
23E) is further combined with the external video signal video0. Reference numeral 311 is a switching signal generation device that generates a necessary switching signal in the superimposing device 310 using a high-speed switch. This superimposing device 310 has a combination of RGB and NTSC both externally and internally.

【0080】スーパーインポーズ装置310での合成に
は、切替装置306から出力されるRGB方式の内部映
像信号video1/2とNTSC方式で供給される外
部映像信号video0とを同期させる必要がある。3
08は外部映像信号の水平同期信号Hsyncを検出す
る外部水平同期検出部、309は外部映像信号の垂直同
期信号Vsyncを検出する外部垂直同期検出部、30
4は画面生成装置302の内部垂直同期信号Vsync
を検出する内部垂直同期検出部である。
For the composition in the superimposing device 310, it is necessary to synchronize the RGB internal video signal video1 / 2 output from the switching device 306 and the external video signal video0 supplied in the NTSC system. Three
Reference numeral 08 denotes an external horizontal sync detection unit for detecting the horizontal sync signal Hsync of the external video signal, 309 denotes an external vertical sync detection unit for detecting the vertical sync signal Vsync of the external video signal, 30
4 is an internal vertical synchronization signal Vsync of the screen generation device 302.
It is an internal vertical synchronization detection unit for detecting.

【0081】外部と内部の同期に関しては、VCO(電
圧制御発振器)301と垂直同期合わせ装置305を含
むPLL(位相同期ループ)が用いられる。水平同期合
わせ装置305はこのPLLの位相検波器とループフィ
ルタを含むブロックである。内部の画面生成装置30
2,303相互の垂直同期と水平同期に関しては、画面
生成装置302から出力される同期信号Csyncを検
出する内部垂直同期検出部304からの垂直リセット信
号Vresetが用いられる。このリセット信号Vre
setを用いると、外部映像信号がなくとも内部2画像
の同期をとることができる。
For synchronization between the outside and the inside, a PLL (phase locked loop) including a VCO (voltage controlled oscillator) 301 and a vertical synchronization device 305 is used. The horizontal synchronization device 305 is a block including this PLL phase detector and loop filter. Internal screen generation device 30
The vertical reset signal Vreset from the internal vertical synchronization detection unit 304 that detects the synchronization signal Csync output from the screen generation device 302 is used for the vertical synchronization and the horizontal synchronization between the two and 303. This reset signal Vre
If set is used, it is possible to synchronize two internal images without an external video signal.

【0082】(12)センタのファイルセイフ 楽音合成型カラオケシステムは、ホスト局側の機能が常
に保障されていなければ、信頼性に欠ける。通信系統の
信頼性を向上させるために、通常の通信制御装置(CC
U)を導入して多重化すると、システムコストが上昇す
る。
(12) The center file-safe tone synthesis type karaoke system lacks reliability unless the function of the host station is always guaranteed. In order to improve the reliability of the communication system, a normal communication control device (CC
Introducing U) and multiplexing increases the system cost.

【0083】図22に示すセンタのファイルセイフ機構
は、センタ201(ホスト局)にアクセスするカラオケ
装置側の公衆回線網202とセンタ側の回線網203と
の間に設置する通信制御部204を複数組に分割し、カ
ラオケ側回線網202からはどの通信制御部204にも
代表番号でアクセスできるようにしておく。各通信制御
部204は通信制御用の通信サーバWS(ワークステー
ション)205とTA(ターミナルアダプタ)206の
電源系統を分離しておく。TA206はISDN回線用
のインターフェースI/Fとアナログ回線用のモデムm
odemを含み、ISDN I/FはスカGバスSCS
Iで通信サーバWS205に接続され、modemはR
S232Cケーブルで通信サーバWS205に接続され
る。
The file safe mechanism of the center shown in FIG. 22 has a plurality of communication control units 204 installed between the public network 202 on the karaoke machine side for accessing the center 201 (host station) and the network 203 on the center side. The karaoke side network 202 is divided into groups so that any communication control unit 204 can be accessed with a representative number. Each communication control unit 204 separates the power supply system of the communication control communication server WS (workstation) 205 and TA (terminal adapter) 206. TA206 is an interface I / F for ISDN line and a modem m for analog line
Includes ode, ISDN I / F is Ska G bus SCS
I is connected to the communication server WS205, and the modem is R
It is connected to the communication server WS 205 with an S232C cable.

【0084】通信サーバWS205の上位には、DBサ
ーバWS(監視用WS)207が設けられている。この
DBサーバWS207は、例えばポーリングによって各
通信サーバWS205の正常/異常を監視し、異常を検
出したら、パワーコントローラ208に情報を送って、
故障した通信サーバWS204の配下にあるTA206
の電源をオフにさせる。この時、故障した通信サーバW
S204の電源は落とさない。これは、通信サーバWS
204に付随するHDD等への影響(クラッシュ)を避
けるためである。場合によっては、TA206が故障す
ることもある。この場合も、パワーコントローラ208
によってTA206の電源だけをオフにする。
A DB server WS (monitoring WS) 207 is provided above the communication server WS 205. The DB server WS207 monitors normality / abnormality of each communication server WS205 by polling, for example, and sends information to the power controller 208 when an abnormality is detected.
TA 206 under the faulty communication server WS 204
Turn off the power. At this time, the failed communication server W
The power of S204 is not turned off. This is the communication server WS
This is for avoiding the influence (crash) on the HDD and the like accompanying the 204. In some cases, the TA 206 may fail. Also in this case, the power controller 208
Turns off only the power of TA206.

【0085】複数ある通信制御部204の中の一部通信
制御部204のTA206の電源をオフにすると、公衆
回線網202からそのTA206に発信しようとして
も、レスポンスがないので、発信できない。代表回線方
式では、この様な場合、次の回線を自動的に選択してア
クセスするので、やがて正常に作動している通信制御部
204を通してセンタ201へのアクセスが可能にな
る。この方式の利点は、特殊な通信制御装置を必要とし
ない点、安価に回線の増設が可能である点、TAの電源
を落とすだけなのでWS側がクラッシュしない点であ
る。
When the power of the TA 206 of a part of the communication control units 204 among the plurality of communication control units 204 is turned off, even if an attempt is made to make a call to the TA 206 from the public line network 202, there is no response and the call cannot be made. In such a case, in the representative line system, the next line is automatically selected and accessed, so that it becomes possible to access the center 201 through the normally operating communication control unit 204. The advantages of this system are that no special communication control device is required, that the line can be added inexpensively, and that the WS side does not crash because the TA power is simply turned off.

【0086】この様な措置を講じない場合は、通信サー
バWS205が故障している通信制御部204のTA2
06に接続する可能性があり、その場合はいつまで経っ
ても通信サーバWS205からの応答はない。このた
め、カラオケ装置側では応答があるまで長時間無駄に待
つか、或いは、一旦電話を切ってかけ直す試みをすると
考えられる。これに対し、上述したようにTA206の
電源をオフにしておくことで、この様な無駄を未然に防
止することができる。
If such a measure is not taken, TA2 of the communication control unit 204 in which the communication server WS205 is out of order
06, in which case there is no response from the communication server WS 205 forever. Therefore, it is considered that the karaoke device side waits wastefully for a long time until it receives a response, or attempts to hang up and call back again. On the other hand, by turning off the power supply of the TA 206 as described above, it is possible to prevent such waste.

【0087】(13)ポータブルダウンロード機 図4のカラオケシステムのHDD22Cに例えば100
0曲分の曲データを一度にダウンロードする場合、IS
DN回線40を使用すると回線料金が高くなる。ポータ
ルブル(キャリアブル)ダウンロード機71はこのよう
な大量なデータのダウンロードを楽音再生で、従って安
価に実現するためのものである。図23は、このダウン
ロード機71を曲データのダウンロードが必要なカラオ
ケ装置設置店に運搬して、その記憶装置22C(ハード
ディスクHDDまたはミニディスクMD等)にロードし
ている様子を示している。ロード完了したダウンロード
機71は、次の店に運搬してダウンロードに使用する。
このダウンロード機71は、新規のデータをロードする
場合だけではなく、一定期間毎に全データを更新する場
合にも使用できる。
(13) Portable download machine For example, in the HDD 22C of the karaoke system shown in FIG.
When downloading song data for 0 songs at a time, IS
If the DN line 40 is used, the line charge will be high. The portalable (carryable) downloader 71 is for realizing such a large amount of data download by musical sound reproduction, and thus at low cost. FIG. 23 shows a state in which the download device 71 is transported to a karaoke device installation store that needs to download song data and is loaded in the storage device 22C (hard disk HDD or mini disk MD or the like). The downloaded downloader 71 is transported to the next store and used for downloading.
This downloader 71 can be used not only when loading new data but also when updating all data at regular intervals.

【0088】(14)移動体へのデータ更新 上述した可搬型のダウンロード機71は、前述したよう
なISDNの接続が困難な移動体へのダウンロードに使
用すると更に効果的である。図24は、バス401に音
源カラオケ装置402を搭載し、乗客の種類(外人客、
年輩客、女性客、男性客等)に応じて運行前にその日使
用する曲データをカラオケローダと呼ばれる過般型のダ
ウンロード機403(図4の71に相当)からカラオケ
装置402の記憶装置にダウンロードする例を示してい
る。ダウンロード機403は複数種類用意し、それぞれ
にファイルサーバ404から必要な曲データを定期的に
ローディングしておく。このファイルサーバ404に対
しては、ホスト局30からISDN回線40を介して必
要な全ての曲データが供給される。この様にすれば、回
線接続が困難、または通信速度の遅い移動体にも本発明
のシステムを導入できる。図25は、図24を機能ブロ
ック化して示したもので、ファイルサーバ404はバス
会社のサブホストとして示されている。
(14) Updating of data to mobile unit The above-mentioned portable downloader 71 is more effective when used for downloading to a mobile unit to which it is difficult to connect the ISDN as described above. In FIG. 24, a sound source karaoke device 402 is mounted on a bus 401, and passenger types (foreign passengers,
According to elderly customers, female customers, male customers, etc.), the song data to be used for the day before the operation is downloaded from a general-purpose download machine 403 called karaoke loader (corresponding to 71 in FIG. 4) to the storage device of the karaoke apparatus 402. An example is shown. A plurality of types of download machines 403 are prepared, and necessary music data is loaded from the file server 404 on a regular basis. To the file server 404, all necessary music data is supplied from the host station 30 via the ISDN line 40. By doing so, the system of the present invention can be introduced even in a mobile body whose line connection is difficult or whose communication speed is slow. FIG. 25 is a functional block diagram of FIG. 24, and the file server 404 is shown as a sub-host of the bus company.

【0089】[0089]

【発明の効果】以上述べたように本発明によれば、既存
の楽音再生手段を有効利用しながら、楽音合成型カラオ
ケ装置への移行を安価にて実現するカラオケ制御装置を
提供することができる。
As described above, according to the present invention, it is possible to provide a karaoke control device which realizes the transition to the musical sound synthesizing type karaoke device at low cost while effectively utilizing the existing musical sound reproducing means. .

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明を適用した総合カラオケシステムの概
略構成図である。
FIG. 1 is a schematic configuration diagram of a general karaoke system to which the present invention is applied.

【図2】 カラオケ制御装置のブロック図である。FIG. 2 is a block diagram of a karaoke control device.

【図3】 図1のシステムを機能的に示すブロック図で
ある。
FIG. 3 is a block diagram functionally showing the system of FIG.

【図4】 図1のシステムを詳細に示す構成図である。FIG. 4 is a configuration diagram showing the system of FIG. 1 in detail.

【図5】 曲データのフォーマット例を示すデータ構造
図である。
FIG. 5 is a data structure diagram showing a format example of music data.

【図6】 各種バッファの機能を示す説明図である。FIG. 6 is an explanatory diagram showing functions of various buffers.

【図7】 曲データのフォーマットの他の例を示すデー
タ構造図である。
FIG. 7 is a data structure diagram showing another example of the format of music data.

【図8】 フォントIDの説明図である。FIG. 8 is an explanatory diagram of a font ID.

【図9】 MIDIイベントの実行態様を示す説明図で
ある。
FIG. 9 is an explanatory diagram showing an execution mode of a MIDI event.

【図10】 MIDIイベントと同期したADPCMイ
ベントの実行態様を示す説明図である。
FIG. 10 is an explanatory diagram showing an execution mode of an ADPCM event synchronized with a MIDI event.

【図11】 コーラスデータの一部を汎用的に音源から
発音する場合の構成図である。
FIG. 11 is a configuration diagram of a case where a part of chorus data is universally sounded from a sound source.

【図12】 音源から発音できないフレーズコーラスデ
ータの圧縮/伸長の説明図である。
FIG. 12 is an explanatory diagram of compression / expansion of phrase chorus data that cannot be sounded from a sound source.

【図13】 ピッチシフトの説明図である。FIG. 13 is an explanatory diagram of pitch shift.

【図14】 シーケンサによる多元制御の説明図であ
る。
FIG. 14 is an explanatory diagram of multiple control by a sequencer.

【図15】 演奏曲情報の多元表示の説明図である。FIG. 15 is an explanatory diagram of multiple display of performance music information.

【図16】 演奏曲の中央値決定法の説明図である。FIG. 16 is an explanatory diagram of a method of determining a median value of performance music pieces.

【図17】 曲データの中央値記憶法の第1の例を示す
構成図である。
FIG. 17 is a configuration diagram showing a first example of a median value storage method of music data.

【図18】 曲データの中央値記憶法の第2の例を示す
構成図である。
FIG. 18 is a configuration diagram showing a second example of a median value storage method of music data.

【図19】 曲データの中央値記憶法の第3の例を示す
構成図である。
FIG. 19 is a configuration diagram showing a third example of a median value storage method of music data.

【図20】 コード名表示の説明図である。FIG. 20 is an explanatory diagram of a code name display.

【図21】 3重画像スーパーインポーズを可能とする
装置構成図である。
FIG. 21 is a device configuration diagram that enables triple image superimposition.

【図22】 センタファイルを多重化した通信システム
構成図である。
FIG. 22 is a configuration diagram of a communication system in which center files are multiplexed.

【図23】 楽音合成型の可搬型ダウンロード機の説明
図である。
FIG. 23 is an explanatory diagram of a musical sound synthesis portable downloader.

【図24】 カラオケ装置を搭載した移動体へのダウン
ロードのシステム構成図である。
FIG. 24 is a system configuration diagram of a download to a moving body equipped with a karaoke device.

【図25】 図24を機能的に示すブロック図である。FIG. 25 is a block diagram functionally showing FIG. 24.

【符号の説明】[Explanation of symbols]

10…楽音再生型カラオケ装置、11…LDチェンジャ
システム、12…モニタ、13…ミキシングアンプ、1
4…マイク、15…スピーカ、20…カラオケ制御装
置、21…コマンダ部、21A…リモコンレシーバ、2
1B…キー入力インターフェース、21C…選曲・予約
コントローラ、21D…表示器、21E…表示器ドライ
バ、21F…AV入出力セレクタ、21G…コントロー
ル出力インターフェース、22…ファイルシステムユニ
ット、22A…ファイルコントローラ、22B…ISD
Nコントローラ、22C…記憶装置、23…演奏・表示
ユニット、23A…データバッファ、23B…マルチメ
ディアシーケンサ(MMS)、23C…音源プロセッ
サ、23D…ビデオプロセッサ、23E…ビデオスーパ
ーインポーザ、25…マイコンボード、30…ホスト
局、40…通信回線、50…リモコン、61…CPU、
62…RAM、63…ISDNインターフェース、64
…MIDIインターフェース、65…チェンジャコント
ロール、66…ADPCMプロセッサ、67…ピッチシ
フタ、68…エフェクタミキサ、69…マイクエフェク
タ、70…音場創成器、71…ポータブルダウンロード
機。
10 ... Music reproduction type karaoke apparatus, 11 ... LD changer system, 12 ... Monitor, 13 ... Mixing amplifier, 1
4 ... Microphone, 15 ... Speaker, 20 ... Karaoke control device, 21 ... Commander part, 21A ... Remote control receiver, 2
1B ... Key input interface, 21C ... Song selection / reservation controller, 21D ... Display, 21E ... Display driver, 21F ... AV input / output selector, 21G ... Control output interface, 22 ... File system unit, 22A ... File controller, 22B ... ISD
N controller, 22C ... Storage device, 23 ... Performance / display unit, 23A ... Data buffer, 23B ... Multimedia sequencer (MMS), 23C ... Sound source processor, 23D ... Video processor, 23E ... Video super imposer, 25 ... Microcomputer board , 30 ... Host station, 40 ... Communication line, 50 ... Remote control, 61 ... CPU,
62 ... RAM, 63 ... ISDN interface, 64
... MIDI interface, 65 ... Changer control, 66 ... ADPCM processor, 67 ... Pitch shifter, 68 ... Effector mixer, 69 ... Microphone effector, 70 ... Sound field generator, 71 ... Portable downloader.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D080 BA01 DA06 FA01 HA01 5D108 BA04 BB03 BB06 BC12 BG07 BG08 5D378 MM52 MM97 QQ01 QQ38 TT08   ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5D080 BA01 DA06 FA01 HA01                 5D108 BA04 BB03 BB06 BC12 BG07                       BG08                 5D378 MM52 MM97 QQ01 QQ38 TT08

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 演奏曲のオーディオ信号を記憶し指定さ
れた演奏曲のオーディオ信号を再生し出力する楽音再生
手段と、 演奏曲のイベント情報を記憶し指定された演奏曲のイベ
ント情報に従って音源で楽音を合成し出力する楽音合成
手段と、 演奏曲の選曲指示を受け付けるコマンダ部とを備え、 前記コマンダ部は、前記受け付けた選曲指示をもとに、
前記楽音再生手段で演奏曲の再生をするか、前記楽音合
成手段で演奏曲の楽音を合成するかを選択制御すること
を特徴とする楽音出力装置。
1. A musical tone reproducing means for storing an audio signal of a musical piece to be played and reproducing and outputting an audio signal of the designated musical piece, and a sound source according to the event information of the musical piece to be stored, which stores event information of the musical piece to be played. The musical sound synthesizing unit for synthesizing and outputting musical tones, and the commander unit for receiving a music selection instruction of a performance song, the commander unit, based on the received music selection instruction,
A musical sound output device, which selectively controls whether the musical sound reproducing means reproduces a musical piece to be played or the musical sound synthesizing means synthesizes musical sounds of a musical piece to be played.
【請求項2】 前記コマンダ部は、前記受け付けた選曲
指示に対応する演奏曲が前記楽音再生手段に記憶されて
いる場合には、前記楽音再生手段により当該演奏曲の再
生を行わせ、前記受け付けた選曲指示に対応する演奏曲
が前記楽音再生手段に記憶されておらず且つ前記楽音合
成手段に記憶されている場合には、前記楽音合成手段に
より当該演奏曲の合成を行わせることを特徴とする請求
項1記載の演奏出力装置。
2. The commander section causes the musical sound reproducing means to reproduce the musical piece when the musical piece corresponding to the received musical selection instruction is stored in the musical sound reproducing means, and the musical piece reproducing means reproduces the musical piece. When the musical composition corresponding to the selected music selection instruction is not stored in the musical sound reproducing means and is stored in the musical sound synthesizing means, the musical sound synthesizing means synthesizes the musical performance. The performance output device according to claim 1.
JP2002131836A 2002-05-07 2002-05-07 Musical performance output device Pending JP2003050591A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002131836A JP2003050591A (en) 2002-05-07 2002-05-07 Musical performance output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002131836A JP2003050591A (en) 2002-05-07 2002-05-07 Musical performance output device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP5077637A Division JPH06268774A (en) 1993-03-11 1993-03-11 Karaoke (orchestration without lirics) controller

Publications (1)

Publication Number Publication Date
JP2003050591A true JP2003050591A (en) 2003-02-21

Family

ID=19194374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002131836A Pending JP2003050591A (en) 2002-05-07 2002-05-07 Musical performance output device

Country Status (1)

Country Link
JP (1) JP2003050591A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219054A (en) * 2006-02-15 2007-08-30 Yamaha Corp Audio playback device and file format
JP2007225934A (en) * 2006-02-23 2007-09-06 Xing Inc Karaoke system and host device for the same
JP2011181998A (en) * 2010-02-26 2011-09-15 Daito Giken:Kk Sound controller
JP2012114953A (en) * 2012-02-29 2012-06-14 Daito Giken:Kk Sound controller

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219054A (en) * 2006-02-15 2007-08-30 Yamaha Corp Audio playback device and file format
JP4595828B2 (en) * 2006-02-15 2010-12-08 ヤマハ株式会社 Audio playback device
JP2007225934A (en) * 2006-02-23 2007-09-06 Xing Inc Karaoke system and host device for the same
JP2011181998A (en) * 2010-02-26 2011-09-15 Daito Giken:Kk Sound controller
JP2012114953A (en) * 2012-02-29 2012-06-14 Daito Giken:Kk Sound controller

Similar Documents

Publication Publication Date Title
JP3072452B2 (en) Karaoke equipment
JP3206619B2 (en) Karaoke equipment
US5654516A (en) Karaoke system having a playback source with pre-stored data and a music synthesizing source with rewriteable data
KR0148846B1 (en) On-line karaoke system with flying start performance
JPH04199096A (en) Karaoke playing device
JPH06268774A (en) Karaoke (orchestration without lirics) controller
JP3127722B2 (en) Karaoke equipment
JP4175337B2 (en) Karaoke equipment
JP2000310991A (en) Karaoke device
JP2003050591A (en) Musical performance output device
JP3039468B2 (en) Karaoke equipment
JP3551441B2 (en) Karaoke equipment
JP2897614B2 (en) Karaoke equipment
JP2979897B2 (en) Karaoke equipment
JP2001100771A (en) Karaoke device
JP3313050B2 (en) Karaoke apparatus and karaoke reproducing method
JP3192035B2 (en) Karaoke equipment
JP3322279B2 (en) Karaoke equipment
JP3309928B2 (en) Karaoke device and communication karaoke system
JP3743985B2 (en) Karaoke equipment
JP3227886B2 (en) Online karaoke system
JP2978745B2 (en) Karaoke equipment
JPH1091180A (en) Karaoke(sing-along machine) device and karaoke reproducing method
JPH06161439A (en) Reproduction output synchronizing device for musical sound and video
JPH04136998A (en) Electronic musical tone reproducing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060718