JPH1138985A - Karaoke device - Google Patents

Karaoke device

Info

Publication number
JPH1138985A
JPH1138985A JP9194268A JP19426897A JPH1138985A JP H1138985 A JPH1138985 A JP H1138985A JP 9194268 A JP9194268 A JP 9194268A JP 19426897 A JP19426897 A JP 19426897A JP H1138985 A JPH1138985 A JP H1138985A
Authority
JP
Japan
Prior art keywords
singing
data
voice signal
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9194268A
Other languages
Japanese (ja)
Other versions
JP3562239B2 (en
Inventor
Kanehisa Tsurumi
兼久 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP19426897A priority Critical patent/JP3562239B2/en
Publication of JPH1138985A publication Critical patent/JPH1138985A/en
Application granted granted Critical
Publication of JP3562239B2 publication Critical patent/JP3562239B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a KARAOKE (orchestration without lyrics) device capable of scoring the difference of singing level. SOLUTION: First and second evaluation function operating section 510, 520 calculates respectively scored results Q1a, Q1b based on difference data Diffa, Diffb, a first comparing section 550 compares the graded result Q1a with the scored result Q1b. Also, third and fourth evaluation function operating sections 530, 540 calculates respectively scored results Q2a, Q2b based on difference data Diffa, Diffb, a second comparing section 560 compares the scored result Q2a with the scored result Q2b. Also, random numbers generating section 570 generates random numbers M. A discriminating section 580 performs discrimination of the difference of singing level based on compared results of the first and the second comparing section 550, 560 and random numbers M. Especially, when either of compared results of the first and the second comparing sections 550, 560 indicates coincidence, the difference of singling level is discriminated based on the other compared result. Also, when both compared results indicate coincidence, the difference of singing level is discriminated based on rundom numbers M.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、利用者の歌唱力
を採点する機能を有するカラオケ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke apparatus having a function of scoring a user's singing ability.

【0002】[0002]

【従来の技術】従来より、歌い手の歌唱力を採点する機
能を備えたカラオケ装置が各種開発されている。一般
に、この種のカラオケ装置においては、歌い手の歌唱音
声とカラオケの楽曲情報に含められたボーカルパートの
リファレンスとの間で音量や音程(ピッチ)等を比較
し、音量差と音程差の程度に応じて歌唱力を採点するよ
うになっている。また、カラオケ装置では、歌い手が歌
唱すると、マイクロホン(以下、マイクという)から入
力される歌唱音声を増幅して、スピーカーから発音させ
ている。
2. Description of the Related Art Hitherto, various karaoke apparatuses having a function of scoring the singing ability of a singer have been developed. Generally, in this type of karaoke apparatus, the volume and pitch (pitch) and the like are compared between the singing voice of the singer and the reference of the vocal part included in the karaoke music information. Singing ability is graded accordingly. In a karaoke apparatus, when a singer sings, a singing voice input from a microphone (hereinafter, referred to as a microphone) is amplified and sounded from a speaker.

【0003】[0003]

【発明が解決しようとする課題】ところで、カラオケ装
置で歌唱される曲の種類として、二人の歌い手が同時に
歌唱し歌唱力の優劣を競うバトル曲が知られている。バ
トル曲では、二人の歌い手の歌唱力は同一の評価関数に
よって採点され、それらの採点結果に基づいて歌唱力の
優劣が決定される。そして、歌唱力の優劣はモニタに表
示されるようになっている。これにより、その場の雰囲
気が盛り上がり、歌い手や聴衆は楽曲の歌唱をより積極
的に楽しむことができる。しかし、せっかく歌唱しても
採点結果が同一であれば、優劣がつかず引き分けになっ
てしまい面白味が半減してしまうという問題があった。
By the way, as a kind of music sung by the karaoke apparatus, a battle music in which two singers sing simultaneously and compete in singing ability is known. In the battle song, the singing ability of the two singers is scored by the same evaluation function, and the singing ability is determined based on the scoring result. The superiority of the singing ability is displayed on a monitor. Thereby, the atmosphere of the place is excited, and the singer and the audience can enjoy the singing of the music more positively. However, if the scores are the same even if the song is sung with great effort, there is a problem that the game is not determined to be superior or inferior, and the interest is reduced by half.

【0004】また、バトル曲のように二人の歌い手の採
点を独立して行う場合には、マイクの選択に対応して歌
唱力の採点および優劣の判定が行われる。しかし、どち
らの歌い手がどのマイクを使用して歌唱しているかを知
ることができなかったので、優劣の判定について混乱が
生じることがあった。
[0004] When two singers are scored independently as in the case of a battle song, singing ability is graded and judgment of superiority or inferiority is made in accordance with selection of a microphone. However, since it was not possible to know which singer was singing using which microphone, confusion sometimes occurred in judging superiority.

【0005】また、デュエット曲では、男性のみが歌唱
する男性歌唱区間、女性のみが歌唱する女性歌唱区間、
および男女が同時に歌唱する混成歌唱区間から構成され
ることが多い。しかし、デュエット曲を歌い慣れていな
い歌い手は、いま自分が歌唱すべき時なのか良く分から
ず、まごついてしまうことがあった。
In a duet song, a male singing section in which only men sing, a female singing section in which only women sing,
Often, it is composed of mixed singing sections in which men and women sing simultaneously. However, singers who are not accustomed to singing duet songs sometimes get confused because they do not know when it is time to sing.

【0006】この発明は、このような背景の下になされ
たもので、二人以上の歌い手が歌唱する場合に、歌唱力
の優劣を必ずつけることを目的とする。また、他の目的
は、歌い手に歌唱しているマイクの種類を知らせること
を目的とする。
[0006] The present invention has been made under such a background, and an object of the present invention is to always give superiority in singing ability when two or more singers sing. Another object is to inform a singer of the type of microphone being sung.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載した発明にあっては、曲データに基
づいて演奏を行うカラオケ装置において、第1のマイク
ロホンから取り込まれる歌唱音声信号と第2のマイクロ
ホンから取り込まれる歌唱音声信号とを混合または選択
して第1の出力端子と第2の出力端子から出力する選択
手段と、前記第1の出力端子から出力される前記歌唱音
声信号に基づいて音楽要素の特徴量を抽出する第1の抽
出手段と、前記第1の抽出手段の抽出結果と前記曲デー
タが示す第1の基準値を比較して第1の比較結果を生成
する第1の比較手段と、前記第2の出力端子から出力さ
れる前記歌唱音声信号に基づいて音楽要素の特徴量を抽
出する第2の抽出手段と、前記第2の抽出手段の抽出結
果と前記曲データが示す第2の基準値を比較して第2の
比較結果を生成する第2の比較手段と、前記第1の比較
結果と前記第2の比較結果を一の評価基準に基づいて評
価して、歌唱力の優劣を定める第1の評価部と、前記第
1の比較結果と前記第2の比較結果を他の評価基準に基
づいて評価して、歌唱力の優劣を定める第2の評価部
と、前記第1の評価部と前記第2の評価部の評価結果の
うち、一方の評価結果が優劣無しを示し、他方の評価結
果が優劣有りを示す場合には、優劣有りを示す評価結果
に基づいて、歌唱力の優劣を判定する判定部と前記曲デ
ータに基づいて、前記選択手段の切換と前記第1,第2
の基準値の設定とを同期して制御する制御手段とを備え
ることを特徴とする。
According to the first aspect of the present invention, there is provided a karaoke apparatus for performing a performance based on music data, a singing voice signal taken from a first microphone. Means for mixing or selecting a singing voice signal taken in from a second microphone and outputting the singing voice signal from a first output terminal and a second output terminal, and the singing voice signal output from the first output terminal A first extraction unit for extracting a feature amount of a music element based on the first data, and a first comparison result generated by comparing an extraction result of the first extraction unit with a first reference value indicated by the song data. First comparing means, second extracting means for extracting a characteristic amount of a music element based on the singing voice signal output from the second output terminal, and an extraction result of the second extracting means; Song data A second comparison means for comparing a second reference value to generate a second comparison result, and evaluating the first comparison result and the second comparison result based on one evaluation criterion, A first evaluation unit that determines the singing ability, and a second evaluation unit that evaluates the first comparison result and the second comparison result based on another evaluation criterion to determine the singing ability. When one of the evaluation results of the first evaluation unit and the second evaluation unit indicates no superiority and the other evaluation result indicates superiority, the evaluation result indicating superiority or inferiority is obtained. A switching unit for switching the selecting means and the first and second singing powers based on the song data based on the song data.
And control means for controlling the setting of the reference value in synchronism.

【0008】また、請求項2に記載した発明にあって
は、乱数を発生する乱数発生部を備え、記判定部は、前
記第1の評価部と前記第2の評価部の評価結果がいずれ
も優劣無しを示す場合には、前記乱数発生部で発生する
乱数に基づいて、歌唱力の優劣を判定することを特徴と
する。
According to the invention described in claim 2, there is provided a random number generating section for generating a random number, and the determination section determines which of the evaluation results of the first evaluation section and the second evaluation section. In the case where also indicates that there is no superiority or inferiority, the superiority or inferiority of the singing ability is determined based on the random number generated by the random number generator.

【0009】また、請求項3に記載した発明にあって
は、曲データに基づいて、楽曲の演奏を行うとともに歌
詞をモニタに表示させるカラオケ装置において、第1の
マイクロホンから取り込まれる歌唱音声信号と第2のマ
イクロホンから取り込まれる歌唱音声信号とを混合また
は選択して第1の出力端子と第2の出力端子から出力す
る選択手段と、前記第1の出力端子から出力される前記
歌唱音声信号に基づいて歌唱音量を検出する第1の検出
手段と前記第2の出力端子から出力される前記歌唱音声
信号に基づいて歌唱音量を検出する第2の検出手段と前
記第1の検出手段によって検出された歌唱音量に応じて
第1のキャラクタの形状を可変して前記モニタに表示さ
せるとともに、前記第2の検出手段によって検出された
歌唱音量に応じて第2のキャラクタの大きさを可変して
前記モニタに表示させる表示制御手段と、前記曲データ
に基づいて、前記選択手段の切換と前記第1,第2のキ
ャラクタの設定とを同期して制御する制御手段とを備え
たことを特徴とする。
According to a third aspect of the present invention, in a karaoke apparatus for performing music and displaying lyrics on a monitor based on music data, a singing voice signal taken in from a first microphone and Selecting means for mixing or selecting a singing voice signal taken in from a second microphone and outputting the singing voice signal from a first output terminal and a second output terminal; and a singing voice signal output from the first output terminal. The first detecting means for detecting the singing volume based on the singing voice signal output from the second output terminal and the second detecting means for detecting the singing volume based on the singing voice signal output from the second output terminal. The shape of the first character is changed according to the singing volume and displayed on the monitor, and the shape of the first character is changed according to the singing volume detected by the second detecting means. Display control means for varying the size of the character and displaying the same on the monitor; and control for synchronously controlling switching of the selection means and setting of the first and second characters based on the music data. Means.

【0010】また、請求項4に記載した発明にあって
は、前記制御手段は、前記曲データが二人の歌い手によ
って歌唱される混成歌唱区間と一方の歌い手によって歌
唱される単独歌唱区間から構成されるものであることを
検知すると、前記混成歌唱区間において、混合した前記
歌唱音声信号を前記第1,第2の出力端子から出力する
ように前記選択手段を制御するとともに、前記第1,第
2の検出手段によって検出された歌唱音量に対応して前
記第1,第2のキャラクタの形状を可変し、前記単独歌
唱区間において、前記第1のマイクロホンからの前記歌
唱音声信号を第1の出力端子から出力するとともに第2
のマイクロホンからの前記歌唱音声信号を前記第2の出
力端子から出力するように前記選択手段を制御するとと
もに、前記一方の歌い手による前記歌唱音声信号から検
出された歌唱音量に応じて、対応するキャラクタの形状
を可変するように制御することを特徴とする請求項3に
記載のカラオケ装置。
[0010] In the invention described in claim 4, the control means comprises a mixed singing section in which the music data is sung by two singers and a single singing section in which one singer sings. When it is detected that the singing voice signal is output from the first and second output terminals, the selecting unit controls the selecting means so as to output the mixed singing voice signal from the first and second output terminals. And changing the shapes of the first and second characters in accordance with the singing volume detected by the second detecting means, and outputting the singing voice signal from the first microphone to the first output in the single singing section. Output from the terminal
Controlling the selection means so as to output the singing voice signal from the microphone from the second output terminal, and according to the singing volume detected from the singing voice signal by the one singer, the corresponding character 4. The karaoke apparatus according to claim 3, wherein the karaoke apparatus is controlled so as to change the shape of the karaoke.

【0011】また、請求項5に記載した発明にあって
は、曲データに基づいて演奏を行うカラオケ装置におい
て、第1のマイクロホンから取り込まれる歌唱音声信号
と第2のマイクロホンから取り込まれる歌唱音声信号と
を混合または選択して第1の出力端子と第2の出力端子
から出力する選択手段と、前記第1の出力端子から出力
される前記歌唱音声信号に基づいて音楽要素の特徴量を
抽出する第1の抽出手段と、前記第1の抽出手段の抽出
結果と前記曲データが示す第1の基準値を比較して第1
の比較結果を生成する第1の比較手段と、前記第2の出
力端子から出力される前記歌唱音声信号に基づいて音楽
要素の特徴量を抽出する第2の抽出手段と、前記第2の
抽出手段の抽出結果と前記曲データが示す第2の基準値
を比較して第2の比較結果を生成する第2の比較手段
と、乱数を発生する乱数発生部と、前記第1の比較結果
と前記第2の比較結果を所定の評価基準に基づいて評価
して歌唱力の優劣を定めるとともに、その評価結果が優
劣無しとなった場合には前記乱数発生部の発生する乱数
に基づいて優劣を決める評価部とを備えることを特徴と
する。
Further, according to the invention described in claim 5, in a karaoke apparatus for performing music based on music data, a singing voice signal captured from the first microphone and a singing voice signal captured from the second microphone. Selecting means for mixing or selecting the same and outputting from a first output terminal and a second output terminal, and extracting a characteristic amount of a music element based on the singing voice signal output from the first output terminal. A first extraction unit that compares an extraction result of the first extraction unit with a first reference value indicated by the music data,
First comparing means for generating a comparison result of the above, second extracting means for extracting a characteristic amount of a music element based on the singing voice signal output from the second output terminal, and the second extracting means A second comparing means for comparing the extraction result of the means with a second reference value indicated by the music data to generate a second comparison result; a random number generating unit for generating a random number; The second comparison result is evaluated based on a predetermined evaluation criterion to determine the superiority of the singing ability. If the evaluation result indicates no superiority or inferiority, the superiority or inferiority is determined based on the random number generated by the random number generator. And an evaluation unit for determining.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して、この発明
の実施形態について説明する。 A:実施形態の全体構成 図1は、この発明の一実施形態によるカラオケ装置の全
体構成を示すブロック図である。同図において、30は
装置各部を制御するCPUである。このCPU30に
は、バスBUSを介してROM31、RAM32、ハー
ドディスク装置(HDD)37、通信制御部36、リモ
コン受信部33、表示パネル34、パネルスイッチ3
5、音源装置38、音声データ処理部39、効果用DS
P40、文字表示部43、LDチェンジャ44、表示制
御部45および音声処理用DSP49が接続されてい
る。
Embodiments of the present invention will be described below with reference to the drawings. A: Overall Configuration of Embodiment FIG. 1 is a block diagram showing the overall configuration of a karaoke apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 30 denotes a CPU for controlling each unit of the apparatus. The CPU 30 includes a ROM 31, a RAM 32, a hard disk device (HDD) 37, a communication control unit 36, a remote control receiving unit 33, a display panel 34, and a panel switch 3 via a bus BUS.
5, sound source device 38, audio data processing unit 39, effect DS
The P40, the character display unit 43, the LD changer 44, the display control unit 45, and the DSP 49 for audio processing are connected.

【0013】ROM31には、当該カラオケ装置を起動
するために必要なイニシャルプログラムが記憶されてい
る。装置の電源がオンされると、このイニシャルプログ
ラムによってHDD37に記憶されたシステムプログラ
ムおよびアプリケーションプログラムがRAM32にロ
ードされる。HDD37には、上記システムプログラ
ム、アプリケーションプログラム、カラオケ演奏時に再
生される約1万曲分の楽曲データを記憶する楽曲データ
ファイル370、バトル曲中で再生されるアニメーショ
ンの動画データ、および各種のキャラクタデータが記憶
されている。
The ROM 31 stores an initial program required to start the karaoke apparatus. When the apparatus is turned on, the system program and application programs stored in the HDD 37 are loaded into the RAM 32 by the initial program. The HDD 37 stores the above system program, application program, music data file 370 for storing music data of about 10,000 music played during karaoke performance, animation data of animation played in battle music, and various character data. Is stored.

【0014】ここで、図2〜図4を参照し、楽曲データ
の内容について説明する。図2は、1曲分の楽曲データ
のフォーマットを示す図である。また、図3、図4は楽
曲データの各トラックの内容を示す図である。図2にお
いて、楽曲データは、ヘッダ、楽音トラック、ガイドメ
ロディトラック、歌詞トラック、音声トラック、効果ト
ラックおよび音声データ部からなっている。ヘッダに
は、その楽曲データに関する種々の情報が書き込まれて
おり、例えば曲番号、曲名、ジャンル、発売日、曲の演
奏時間(長さ)等のデータが書き込まれている。
Here, the contents of the music data will be described with reference to FIGS. FIG. 2 is a diagram showing a format of music data for one music. FIGS. 3 and 4 are diagrams showing the contents of each track of the music data. In FIG. 2, the music data includes a header, a musical sound track, a guide melody track, a lyrics track, an audio track, an effect track, and an audio data section. In the header, various information on the music data is written, for example, data such as a music number, a music title, a genre, a release date, and a music playing time (length) are written.

【0015】楽音トラックないし効果トラックの各トラ
ックは、図3および図4に示すように、複数のイベント
データと各イベント間の時間間隔を示すデュレーション
データΔtからなるシーケンスデータで構成されてい
る。CPU30は、カラオケ演奏時にシーケンスプログ
ラム(カラオケ演奏のためのアプリケーションプログラ
ム)によって各トラックのデータを並行して読み出すよ
うになっている。各トラックのシーケンスデータを読み
出す場合、所定のテンポクロックによりΔtをカウント
し、カウントを終了したしたときこれに続くイベントデ
ータを読み出し、所定の処理部へ出力する。楽音トラッ
クには、図3に示すように、メロディトラック、リズム
トラックをはじめとして種々のパートのトラックが形成
されている。
As shown in FIGS. 3 and 4, each track of the musical sound track or the effect track is composed of sequence data including a plurality of event data and duration data Δt indicating a time interval between each event. The CPU 30 reads out data of each track in parallel by a sequence program (application program for karaoke performance) during karaoke performance. When reading the sequence data of each track, Δt is counted by a predetermined tempo clock, and when the counting is completed, the subsequent event data is read and output to a predetermined processing unit. As shown in FIG. 3, tracks of various parts including a melody track and a rhythm track are formed on the musical tone track.

【0016】また、図4に示すように、ガイドメロディ
トラックには、このカラオケ曲のボーカルパートのメロ
ディすなわち歌唱者が歌うべきメロディのシーケンスデ
ータが書き込まれている。CPU30は、このデータに
基づきリファレンスの音高データ、音量データを生成
し、歌唱音声と比較する。デュエット曲のように複数の
ボーカルパート(例えば、メインメロディとコーラスメ
ロディ)がある場合には、各パートに対応してガイドメ
ロディトラックが存在する。
As shown in FIG. 4, the melody of the vocal part of the karaoke tune, that is, the melody sequence data to be sung by the singer is written in the guide melody track. The CPU 30 generates reference pitch data and volume data based on the data, and compares it with the singing voice. When there are a plurality of vocal parts (for example, a main melody and a chorus melody) as in a duet song, there is a guide melody track corresponding to each part.

【0017】また、歌詞トラックは、モニタ46上に歌
詞を表示するためのシーケンスデータからなっている。
このシーケンスデータは、楽音データではないが、イン
プリメンテーションの統一を図り作業工程を容易にする
ため、このトラックもMIDIデータ形式で記述され
る。データの種類は、システムエクスクルーシブメッセ
ージである。歌詞トラックは、通常はモニタに表示され
る1行分の歌詞に相当する文字コード、そのモニタ画面
上の表示座標、表示時間、およびワイプシーケンスデー
タからなっている。ワイプシーケンスデータとは、曲の
進行に合わせて歌詞の表示色を変更していくためのシー
ケンスデータであり、表示色を変更するタイミング(こ
の歌詞が表示されてからの時間)と変更位置(座標)が
1行分の長さにわたって順次記録されているデータであ
る。
The lyrics track is composed of sequence data for displaying lyrics on the monitor 46.
Although this sequence data is not musical sound data, this track is also described in the MIDI data format in order to unify the implementation and facilitate the work process. The type of data is a system exclusive message. The lyrics track usually includes a character code corresponding to one line of lyrics displayed on the monitor, its display coordinates on the monitor screen, display time, and wipe sequence data. The wipe sequence data is sequence data for changing the display color of the lyrics according to the progress of the song, and includes the timing of changing the display color (the time from when the lyrics are displayed) and the change position (coordinates). ) Is data sequentially recorded over the length of one line.

【0018】音声トラックは、音声データ部に記憶され
ている音声データn(n=1,2,3,……)の発生タ
イミング等を指定するシーケンストラックである。音声
データ部には、音源装置38では合成し難いバックコー
ラス等の人声が記憶されている。音声トラックには、音
声指定データと、音声指定データの読み出し間隔、すな
わち、音声データを音声データ処理部39に出力して音
声信号を形成するタイミングを指定するデュレーション
データΔtが書き込まれている。音声指定データは、音
声データ番号、音程データおよび音量データからなって
いる。音声データ番号は、音声データ部に記録されてい
る各音声データの識別番号nである。音程データ、音量
データは、形成すべき音声データの音程や音量を指定す
るデータである。すなわち、言葉を伴わない「アー」や
「ワワワワッ」等のバックコーラスは、音程や音量を変
化させれば何度も利用できるため、基本的な音程、音量
で1つ記憶しておき、このデータに基づいて音程や音量
をシフトして繰り返し使用する。音声データ処理部39
は、音量データに基づいて出力レベルを設定し、音程デ
ータに基づいて音声データの読み出し間隔を変えること
によって音声信号の音程を設定する。
The audio track is a sequence track for specifying the generation timing of the audio data n (n = 1, 2, 3,...) Stored in the audio data section. The voice data section stores a human voice such as a back chorus which is difficult to synthesize by the sound source device 38. In the audio track, the audio designation data and the reading interval of the audio designation data, that is, the duration data Δt that designates the timing of outputting the audio data to the audio data processing unit 39 and forming the audio signal, are written. The voice designation data includes a voice data number, pitch data, and volume data. The audio data number is an identification number n of each audio data recorded in the audio data section. The pitch data and volume data are data for specifying the pitch and volume of the audio data to be formed. That is, a back chorus such as "Ah" or "Wawa Wawa" without words can be used many times by changing the pitch or volume. The pitch and volume are shifted based on and used repeatedly. Audio data processing unit 39
Sets the output level based on the volume data and sets the pitch of the audio signal by changing the reading interval of the audio data based on the pitch data.

【0019】効果トラックには、効果用DSP40を制
御するためのDSPコントロールデータが書き込まれて
いる。効果用DSP40は、音源装置38、音声データ
処理部39から入力される信号に対してリバーブなどの
残響系の効果を付与する。DSPコントロールデータ
は、このような効果の種類を指定するデータおよびディ
レータイム、エコーレベル等の効果付与の程度を指定す
るデータからなっている。このような楽曲データは、カ
ラオケの演奏開始時にHDD37から読み出され、RA
M32にロードされる。
In the effect track, DSP control data for controlling the effect DSP 40 is written. The effect DSP 40 applies reverberation or other reverberation-based effects to signals input from the sound source device 38 and the audio data processing unit 39. The DSP control data includes data for specifying the kind of the effect and data for specifying the degree of effect application such as the delay time and the echo level. Such music data is read from the HDD 37 at the start of the karaoke performance, and
Loaded to M32.

【0020】次に、図5を参照し、RAM32のメモリ
マップの内容を説明する。同図に示すように、RAM3
2には、ロードしたシステムプログラムやアプリケーシ
ョンプログラムを記憶するプログラム記憶エリア324
のほか、カラオケ演奏のための楽曲データを記憶する実
行データ記憶エリア323、ガイドメロディを一時記憶
するMIDIバッファ320、このガイドメロディから
抽出されたリファレンスデータを記憶するリファレンス
データレジスタ321、およびリファレンスと歌唱音声
を比較することによって求められた差分データを蓄積記
憶する差分データ記憶エリア322が設定されている。
リファレンスデータレジスタ321は、音高データレジ
スタ321aおよび音量データレジスタ321bからな
っている。また、差分データ記憶エリア322は、音高
差分データ記憶エリア322a、音量差分データ記憶エ
リア322bからなっている。
Next, the contents of the memory map of the RAM 32 will be described with reference to FIG. As shown in FIG.
2 is a program storage area 324 for storing loaded system programs and application programs.
In addition, an execution data storage area 323 for storing music data for karaoke performance, a MIDI buffer 320 for temporarily storing a guide melody, a reference data register 321 for storing reference data extracted from the guide melody, and a reference and singing A difference data storage area 322 for storing and storing difference data obtained by comparing sounds is set.
The reference data register 321 includes a pitch data register 321a and a volume data register 321b. The difference data storage area 322 includes a pitch difference data storage area 322a and a volume difference data storage area 322b.

【0021】さて、再び図1を参照し、当該カラオケ装
置の構成の説明を進める。同図において、通信制御部3
6は、ISDN回線を介して図示しないホストコンピュ
ータから楽曲データ等をダウンロードし、内部のDMA
コントローラによって受信した楽曲データをCPU30
を介さずに直接HDD37へ転送する。リモコン受信部
33は、リモコン51から送られてくる赤外線信号を受
信して入力データを復元する。リモコン51は、選曲ス
イッチなどのコマンドスイッチやテンキースイッチ等を
備えており、利用者がこれらのスイッチを操作するとそ
の操作に応じたコードで変調された赤外線信号を送信す
る。表示パネル34は、このカラオケ装置の前面に設け
られており、現在演奏中の曲コードや予約曲数などを表
示するものである。パネルスイッチ35は、カラオケ装
置の前面に設けられており、曲コード入力スイッチやキ
ーチェンジスイッチ等を含んでいる。また、リモコン5
1またはパネルスイッチ35によって採点機能のオン/
オフが指定できるようになっている。
Now, the configuration of the karaoke apparatus will be described again with reference to FIG. In the figure, the communication control unit 3
Numeral 6 downloads music data and the like from a host computer (not shown) via an ISDN line,
The music data received by the controller
Directly to the HDD 37 without going through. The remote control receiver 33 receives the infrared signal sent from the remote controller 51 and restores the input data. The remote controller 51 includes a command switch such as a music selection switch, a numeric key switch, and the like. When the user operates these switches, an infrared signal modulated with a code corresponding to the operation is transmitted. The display panel 34 is provided on the front of the karaoke apparatus, and displays the currently playing music code and the number of reserved music. The panel switch 35 is provided on the front of the karaoke apparatus, and includes a music code input switch, a key change switch, and the like. In addition, remote control 5
1 or panel switch 35 to turn on / off the scoring function
Off can be specified.

【0022】音源装置38は、楽曲データの楽音トラッ
クのデータに基づいて楽音信号を形成する。楽曲データ
は、カラオケ演奏時にCPU30によって読み出され、
楽音トラックとともに比較用データであるガイドメロデ
ィトラックも並行して読み出される。音源装置38は、
楽音トラックの各トラックのデータを並行して読み出
し、複数パートの楽音信号を同時に形成する。
The tone generator 38 forms a tone signal based on tone track data of the music data. The music data is read by the CPU 30 during the karaoke performance,
A guide melody track, which is comparison data, is read out in parallel with the musical tone track. The sound source device 38
The data of each of the musical tone tracks is read out in parallel, and musical tone signals of a plurality of parts are simultaneously formed.

【0023】音声データ処理部39は、楽曲データに含
まれる音声データに基づき、指定された長さ、指定され
た音高の音声信号を形成する。音声データは、バックコ
ーラス等の音源装置38で電子的に発生し難い信号波形
をそのままADPCMデータ化して記憶したものであ
る。音源装置38が形成した楽音信号および音声データ
処理部39が形成した音声信号がカラオケ演奏音であ
り、これらは、効果用DSP40に入力される。効果用
DSP40は、このカラオケ演奏音に対してリバーブや
エコー等の効果を付与する。効果を付与されたカラオケ
演奏音は、D/Aコンバータ41によってアナログ信号
に変換された後、アンプスピーカ42へ出力される。
The audio data processing section 39 forms an audio signal having a specified length and a specified pitch based on audio data included in the music data. The audio data is a signal waveform which is hardly generated electronically by the sound source device 38 such as a back chorus and is directly converted into ADPCM data and stored. The tone signal formed by the sound source device 38 and the sound signal formed by the sound data processing section 39 are karaoke performance sounds, and these are input to the effect DSP 40. The effect DSP 40 adds effects such as reverb and echo to the karaoke performance sound. The karaoke performance sound to which the effect has been added is converted into an analog signal by the D / A converter 41 and then output to the amplifier speaker 42.

【0024】また、47a,47bは各々歌唱用のマイ
クであり、各マイク47a,47bから入力される歌唱
音声信号V1,V2は、図示せぬプリアンプで増幅され
た後、アンプスピーカ42およびセレクタ48に各々入
力される。
Reference numerals 47a and 47b denote singing microphones. Singing voice signals V1 and V2 input from the microphones 47a and 47b are amplified by a preamplifier (not shown), and then amplified by an amplifier speaker 42 and a selector 48. Respectively.

【0025】セレクタ48は、CPU30の制御の下、
各歌唱音声信号V1,V2を選択して音声処理用DSP
49を出力する。この場合、セレクタ48の切換には、
入力端子X1に供給される歌唱音声信号V1を出力端子
Y1から、入力端子X2に供給される歌唱音声信号V2
を出力端子Y2から各々出力するストレートモードと、
入力端子X1,X2に供給される歌唱音声信号V1,V
2を混合した後、出力端子Y1,Y2に出力するミック
スモードがある。
The selector 48 is controlled by the CPU 30
DSP for voice processing by selecting each singing voice signal V1, V2
49 is output. In this case, switching of the selector 48 includes:
The singing voice signal V1 supplied to the input terminal X1 is transmitted from the output terminal Y1 to the singing voice signal V2 supplied to the input terminal X2.
From the output terminal Y2.
Singing voice signals V1, V supplied to input terminals X1, X2
There is a mix mode in which 2 is mixed and then output to output terminals Y1 and Y2.

【0026】ここで、モードの選択は楽曲データおよび
リモコン51の操作の組み合わせによって決定される。
例えば、楽曲によっては、ハモリパートのデータを有す
るものがあるが、ハモリ機能を用いるか否かは、利用者
の判断に委ねられている。利用者がハモリ機能を利用し
て歌唱したい場合には、リモコン51を操作してその旨
を入力すると、ハモリパートとメインボーカルパートの
演奏が行われ、一方、特に操作の行わない場合には、メ
インボーカルパートのみによる演奏が行われる。この場
合に、ハモリ機能を利用するならばストレートモードと
され、それを利用しない場合にはミックスモードとされ
る。換言すれば、各種の効果を含め、利用者によって設
定された楽曲データによってモードの選択が行われる。
Here, the selection of the mode is determined by a combination of the music data and the operation of the remote controller 51.
For example, some songs have data of a hamori part, but whether or not to use the hamori function is left to the discretion of the user. If the user wants to sing using the hamori function, the user operates the remote controller 51 and inputs that fact, and the hamori part and the main vocal part are performed. On the other hand, when no operation is performed, Performance only by the main vocal part is performed. In this case, the straight mode is used if the hamori function is used, and the mixed mode is used if it is not used. In other words, the mode is selected based on the music data set by the user, including various effects.

【0027】音声処理用DSP49に入力された各歌唱
音声信号V1,V2は、各々ディジタル信号に変換され
た後、採点処理のための信号処理が施される。この音声
処理用DSP49とCPU30を含む構成によって後述
する採点処理部50の機能が実現される。また、アンプ
スピーカ42は、入力されたカラオケ演奏音および各歌
唱音声信号を増幅し、かつ、各歌唱音声信号にエコー等
の効果を付与した後、スピーカから放音する。
Each of the singing voice signals V1 and V2 input to the voice processing DSP 49 is converted into a digital signal and then subjected to signal processing for scoring. The configuration including the voice processing DSP 49 and the CPU 30 realizes a function of a scoring processing unit 50 described later. The amplifier speaker 42 amplifies the input karaoke performance sound and each singing voice signal, and gives an effect such as an echo to each singing voice signal, and then emits the sound from the speaker.

【0028】また、音声処理用DSP49は、デジタル
信号に変換された歌唱音声信号V1,V2のレベルを検
出して、音量データを生成する。CPU30は、この音
量データに基づいて、モニタ46に表示するキャラクタ
の大きさを可変するように制御する。具体的には、図6
に示すように、キャラクタとしてアニメーションの人の
顔を用い、顔の大きさを音量データの示すレベルに応じ
て可変すれば良い。この場合、キャラクタデータは、例
えば、外部から伝送され通信制御部36を介してHDD
37に格納される。CPU30は、HDD37からキャ
ラクタデータを読み出し、これをRAM32に展開して
おく。そして、音量データを倍率として用いてキャラク
タデータに画像処理を施して、表示データを生成してい
る。表示データは表示制御部45に転送される。
The voice processing DSP 49 detects the levels of the singing voice signals V1 and V2 converted into digital signals, and generates volume data. The CPU 30 controls to change the size of the character displayed on the monitor 46 based on the volume data. Specifically, FIG.
As shown in (1), the face of an animated person may be used as a character, and the size of the face may be varied according to the level indicated by the volume data. In this case, for example, the character data is transmitted from the outside and transmitted to the HDD via the communication control unit 36.
37. The CPU 30 reads character data from the HDD 37 and expands the character data in the RAM 32. Then, image processing is performed on the character data using the volume data as a magnification to generate display data. The display data is transferred to the display control unit 45.

【0029】これにより、歌唱音声の入力レベルをキャ
ラクタを用いてモニタ46に表示することが可能とな
る。また、デュエット曲を歌唱する際にマイク47a、
47bの選択を誤ると的確な採点を行うことがきず、ま
た、バトル曲を歌唱する際にマイク47a、47bの選
択を誤ると採点結果が逆になってしまう。このため、本
実施形態にあっては、キャラクタを2種類用意して、各
マイク47a,47bと対応させている。この場合、歌
い手が、各マイク47a,47bに向かって発声する
と、対応するキャラクタの大きさが変化する。したがっ
て、歌い手は、自分が正しいマイクを用いて歌唱しよう
としているか否かを容易に確認することができる。
As a result, the input level of the singing voice can be displayed on the monitor 46 using the character. When singing a duet song, the microphone 47a,
If the selection of 47b is incorrect, accurate scoring cannot be performed, and if the microphones 47a and 47b are incorrectly selected when singing a battle song, the scoring result will be reversed. For this reason, in the present embodiment, two types of characters are prepared and corresponded to the microphones 47a and 47b. In this case, when the singer speaks toward each of the microphones 47a and 47b, the size of the corresponding character changes. Therefore, the singer can easily confirm whether he or she is going to sing with the correct microphone.

【0030】次に、図1に示す文字表示部43は、文字
コードが入力されるとこれに対応する曲名や歌詞等のフ
ォントデータを内部のROM(図示略)から読み出し、
該データを出力する。また、LDチェンジャ44は、入
力された映像選択データ(チャプタナンバ)に基づき、
対応するLDの背景映像を再生する。映像選択データ
は、当該カラオケ曲のジャンルデータに基づいて決定さ
れる。このジャンルデータは、楽曲データのヘッダに書
かれており、カラオケ演奏スタート時にCPU30によ
って読み出される。CPU30は、ジャンルデータに基
づいてどの背景映像を再生するかを決定し、その背景映
像を指定する映像選択データをLDチェンジャ44に対
して出力する。LDチェンジャ44には、5枚程度のレ
ーザディスクが内蔵されており、約120シーンの背景
映像を再生することが可能である。映像選択データによ
ってこの中から1つの背景映像が選択され、映像データ
として出力される。この映像データと文字表示部43か
ら出力される歌詞等のフォントデータは、表示制御部4
5にてスーパーインポーズされ、その合成画像がモニタ
46に表示される。採点処理部50によって採点結果が
算出されると、これに応じたキャラクタが文字表示部4
3から出力され、モニタ46に表示されるようになって
いる。
Next, when a character code is input, the character display unit 43 shown in FIG. 1 reads out font data such as a song title and lyrics corresponding to the character code from an internal ROM (not shown).
Output the data. In addition, the LD changer 44, based on the input video selection data (chapter number),
Play the background video of the corresponding LD. The video selection data is determined based on the genre data of the karaoke song. This genre data is written in the header of the music data, and is read by the CPU 30 at the start of the karaoke performance. The CPU 30 determines which background video is to be reproduced based on the genre data, and outputs video selection data designating the background video to the LD changer 44. The LD changer 44 contains about five laser disks, and can reproduce about 120 scenes of background video. One background video is selected from among them according to the video selection data and output as video data. The video data and font data such as lyrics output from the character display unit 43 are transmitted to the display control unit 4.
5, the superimposed image is displayed on the monitor 46. When the grading result is calculated by the grading processing unit 50, a character corresponding to this is displayed on the character display unit 4.
3 and displayed on the monitor 46.

【0031】また、マイクの入力レベルを示す上記表示
データが表示制御部45に転送されると、表示制御部4
5は映像データに表示データをスーパーインポーズする
ようになっている。さらに、バトル曲を歌唱する場合に
は、アニメーションのキャラクタが闘うシーンを表す動
画データがHDD37から読み出され、これが表示制御
部45に供給されるようになっている。また、採点処理
部50によって採点結果が算出されると、これに応じた
キャラクタが文字表示部43から出力され、モニタ46
に表示されるようになっている。
When the display data indicating the input level of the microphone is transferred to the display control unit 45, the display control unit 4
Numeral 5 superimposes display data on video data. Furthermore, when singing a battle song, moving image data representing a scene in which the animation character fights is read from the HDD 37 and supplied to the display control unit 45. When the scoring result is calculated by the scoring processing unit 50, a character corresponding to the scoring result is output from the character display unit 43, and is displayed on the monitor 46.
Is displayed.

【0032】B:採点処理部50 次に、本実施形態の採点処理部50について説明する。
この採点処理部50は、上述した音声処理用DSP4
9、CPU30等のハードウェアと採点用のソフトウェ
アによって構成される。図7は、採点処理部50の構成
を示すブロック図である。同図において、採点処理部5
0は、第1の採点部50A、第2の採点部50B、合成
部50Cおよび評価部50Dからなる。第1,第2の採
点部50A,50Bは、一対のA/Dコンバータ501
a,501b、データ抽出部502a,502b、比較
部503a,503b、およびフィルタ504a,50
4bによって構成される。
B: Scoring Processor 50 Next, the scoring processor 50 of this embodiment will be described.
This scoring processing unit 50 is the DSP 4 for audio processing described above.
9, composed of hardware such as the CPU 30 and software for scoring. FIG. 7 is a block diagram illustrating a configuration of the scoring processing unit 50. In FIG.
0 is composed of a first scoring unit 50A, a second scoring unit 50B, a synthesizing unit 50C, and an evaluating unit 50D. The first and second scoring units 50A and 50B include a pair of A / D converters 501.
a, 501b, data extraction units 502a, 502b, comparison units 503a, 503b, and filters 504a, 50
4b.

【0033】A/Dコンバータ501a,501bは、
セレクタ48から出力される歌唱音声信号を各々ディジ
タル信号に変換する。データ抽出部502a,502b
は、ディジタル化された各歌唱音声信号から100ms
毎に音高データと音量データを抽出する。比較部503
a,503bは、各歌唱音声信号から抽出された音高デ
ータおよび音量データとリファレンスメロディデータ#
A,#Bの音高データおよび音量データとを各々比較
し、それらの差分を算出して、差分データDiffa,Diffb
として出力する。
The A / D converters 501a and 501b are
The singing voice signal output from the selector 48 is converted into a digital signal. Data extraction units 502a and 502b
Is 100 ms from each digitized singing voice signal
The pitch data and the volume data are extracted every time. Comparison section 503
a, 503b are pitch data and volume data extracted from each singing voice signal and reference melody data #
A and #B are compared with the pitch data and the volume data, respectively, and the difference between them is calculated to obtain difference data Diffa and Diffb.
Output as

【0034】ここで、差分データDiffa,Diffbは、以下
のデータから構成される。 Ti:計測時刻データ(演奏クロックの相対時間で計
測) ΔT:持続時間データ(前回の計測時刻からの時間) Mi:リファレンスメロディ状態データ(歌唱が必要な
区間か否か、歌唱区間で「1」、非歌唱区間で「0」) Si:歌唱状態データ(歌唱の有無、歌唱中で「1」、
非歌唱中で「0」) Fi:音高差データ(音高の差分をログスケール(cent
単位)で指示) Li:音量差データ(音量の差分をログスケール(dB単
位)で指示) ただし、「i」は、i番目のサンプルであることを示し
ている。
Here, the difference data Diffa and Diffb are composed of the following data. Ti: Measurement time data (measured by the relative time of the performance clock) ΔT: Duration data (time from the previous measurement time) Mi: Reference melody state data (whether or not a section requires singing, “1” in the singing section , Non-singing section “0”) Si: singing state data (singing presence / absence, singing “1”,
Fi: pitch difference data (pitch difference is log scale (cent
Li: Volume difference data (Volume difference is indicated by log scale (dB unit)) However, “i” indicates the i-th sample.

【0035】この場合、音高差データFiと音量差デー
タLiはログスケールで表されているので、後段にある
合成部50Cの演算を簡略化することができる。また、
リファレンスメロディ状態データMiは、ガイドメロデ
ィトラックに記録されている各パートに対応した楽曲デ
ータに基づいて、CPU30が生成する。具体的には、
当該楽曲データ中のノートオンステータス、ノートオフ
ステータスから生成される。また、歌唱状態データSi
は、データ抽出部502a,502bから供給される各
音量データを予め定められた閾値と比較することによっ
て、各比較部503a,503bが生成する。この場
合、閾値は、利用者が歌唱しているか否かを判別可能な
レベルに設定される。
In this case, since the pitch difference data Fi and the volume difference data Li are represented on a log scale, the operation of the synthesizing section 50C at the subsequent stage can be simplified. Also,
The reference melody state data Mi is generated by the CPU 30 based on music data corresponding to each part recorded on the guide melody track. In particular,
It is generated from the note-on status and the note-off status in the music data. The singing state data Si
Are generated by the comparing units 503a and 503b by comparing each volume data supplied from the data extracting units 502a and 502b with a predetermined threshold value. In this case, the threshold is set to a level at which it is possible to determine whether the user is singing.

【0036】ここで、図8を参照し、歌唱音声データ、
リファレンスデータ、差分データDiffについて説明す
る。図8(A),(B)はリファレンスであるガイドメ
ロディの例を示す図である。同図(A)はガイドメロデ
ィを五線譜によって示したもので、同図(B)はこの五
線譜の内容を約80パーセントのゲートタイムで音高デ
ータ、音量データ化したものを示している。音量はmp
→クレッシェンド→mpの指示に従って上下している。
これに対し、同図(C)は歌唱音声の例を示している。
音高、音量ともリファレンスが示す値から若干変動して
いる。この場合の歌唱状態データSiは、図に示すよう
に音量データが、閾値を上回った場合に「1」となり、
それ以下の場合に「0」となる。後述する評価部50D
は、歌唱状態データSiが「0」となっているサンプル
については、有効なサンプルとして扱わないようにして
いる。このように音量の小さな部分を無視するのは、こ
の区間では、音高差データFiあるいは音量差データL
iに占めるノイズ成分の割合が大きくなるため、採点精
度が劣化してしまうからである。
Here, referring to FIG. 8, singing voice data,
The reference data and the difference data Diff will be described. FIGS. 8A and 8B are diagrams showing examples of a guide melody as a reference. FIG. 7A shows the guide melody in a staff notation, and FIG. 7B shows the contents of the staff converted into pitch data and volume data with a gate time of about 80%. Volume is mp
→ Crescendo → Go up and down according to the instructions of mp.
On the other hand, FIG. 3C shows an example of a singing voice.
Both the pitch and volume slightly fluctuate from the values indicated by the reference. The singing state data Si in this case becomes “1” when the volume data exceeds the threshold as shown in FIG.
If it is less than that, it becomes "0". Evaluation unit 50D to be described later
Does not treat a sample whose singing state data Si is “0” as a valid sample. The reason for ignoring such a small volume is that in this section, the pitch difference data Fi or the volume difference data L
This is because the ratio of the noise component to i becomes large, and the scoring accuracy is degraded.

【0037】ところで、音高差データFiと音量差デー
タLiは、ある範囲内で変動するのが通常であり、これ
らの値が突発的に変動する場合は、ノイズによる誤動作
等によって誤った演算が行われたと考えることができ
る。ノイズの影響を受けた音高差データFiと音量差デ
ータLiとに基づいて歌唱力の採点を行ったのでは、歌
い手の歌唱力を正当に評価することはできない。フィル
タ504a,504bは、このような場合の音高差デー
タFiと音量差データLiとを無効にするために設けら
れたものである。
The pitch difference data Fi and the volume difference data Li usually fluctuate within a certain range. If these values fluctuate suddenly, an erroneous calculation due to malfunction due to noise or the like may occur. Can be considered done. If the singing ability is scored based on the pitch difference data Fi and the volume difference data Li affected by the noise, the singing ability of the singer cannot be properly evaluated. The filters 504a and 504b are provided to invalidate the pitch difference data Fi and the volume difference data Li in such a case.

【0038】フィルタ504a,504bは、その内部
にバッファ、減算器およびコンパレータを有している。
バッファには、1つ前のサンプルで算出された音高差デ
ータFi-1,音量差データLi-1が格納される。そし
て、現在のサンプルに対応した音高差データFi,音量
差データLiが入力されると、減算器において、ΔLi
=|Li−Li-1|、ΔFi=|Fi−Fi-1|が算出
される。コンパレータは、ΔLi、ΔFiを予め定めら
れた閾値Lr、Frと各々比較して、各閾値を上回る場
合に「1」となり、下回る場合」に「0」となる制御信
号を出力する。ここで、各閾値は、各種の実測データか
ら無効なサンプルと判定できるように定める。そして、
フィルタ504a,504bは、制御信号が「1」の場
合に、現在の音高差データFiと音量差データLiと無
効とする。これにより、前回のサンプルと比較して変化
の大きいサンプルを無効にして、歌い手の歌唱力を正当
に評価することが可能となる。
Each of the filters 504a and 504b has a buffer, a subtractor, and a comparator therein.
The buffer stores pitch difference data Fi-1 and volume difference data Li-1 calculated for the immediately preceding sample. When the pitch difference data Fi and the volume difference data Li corresponding to the current sample are input, the subtractor
= | Li-Li-1 |, ΔFi = | Fi-Fi-1 | The comparator compares ΔLi and ΔFi with predetermined thresholds Lr and Fr, respectively, and outputs a control signal that becomes “1” when the threshold value is exceeded and “0” when the threshold value is exceeded. Here, each threshold value is determined so that an invalid sample can be determined from various types of actually measured data. And
When the control signal is "1", the filters 504a and 504b invalidate the current pitch difference data Fi and the volume difference data Li. As a result, it is possible to invalidate a sample having a large change as compared with the previous sample and properly evaluate the singing ability of the singer.

【0039】次に、合成部50Cは、計測時刻データT
iを参照することにより、同時刻の差分データDiffa,D
iffbを合成し、合成差分データDiffcを生成する。合成
差分データDiffcは、計測時刻データTi、持続時間デ
ータΔTの他、合成リファレンスメロディ状態データM
i’、合成歌唱状態データSi’、合成音高差データF
i’および合成音量差データLi’から構成される。
Next, the synthesizing unit 50C outputs the measurement time data T
i, difference data Diffa, D at the same time
The iffb is combined to generate combined difference data Diffc. The synthetic difference data Diffc includes the synthetic reference melody state data M in addition to the measurement time data Ti and the duration data ΔT.
i ′, synthesized singing state data Si ′, synthesized pitch difference data F
i ′ and the synthesized volume difference data Li ′.

【0040】ここで、差分データDiffaを構成する各デ
ータに添字「1」、差分データDiffbに係わる各データ
に添字「2」を付して表すこととすると、合成リファレ
ンスメロディ状態データMi’はMi1とMi2の論理和
として、合成歌唱状態データSi’はSi1とSi2の論
理和として算出される。また、合成音高差データFi’
と合成音量差データLi’は、Mi1とMi2、Si1と
Si2に応じて以下に示す式に従って算出される。
Here, assuming that each data constituting the difference data Diffa is represented by a suffix “1” and each data relating to the difference data Diffb is represented by a suffix “2”, the combined reference melody state data Mi ′ is Mi1 The composite singing state data Si 'is calculated as the logical OR of Si1 and Si2 as the logical OR of Mi1 and Mi2. Also, the synthetic pitch difference data Fi ′
And the synthetic volume difference data Li ′ are calculated according to the following equations according to Mi1 and Mi2 and Si1 and Si2.

【0041】1)Mi1*Mi2*Si1*Si2=1の場
合 この場合は、いずれの採点部で行われる採点にあって
も、有効な歌唱区間であって、かつ歌い手が歌唱してい
る期間である。このため、差分データの平均値を算出す
る。 Fi’=(Fi1+Fi2)/2 Li’=(Li1+Li2)/2
1) In the case of Mi1 * Mi2 * Si1 * Si2 = 1 In this case, regardless of the scoring performed in any scoring section, it is a valid singing section and a period during which the singer is singing. is there. Therefore, an average value of the difference data is calculated. Fi ′ = (Fi1 + Fi2) / 2 Li ′ = (Li1 + Li2) / 2

【0042】2)Mi1*Si1=1、Mi2*Si2=0 この場合、第2の採点部50Bで行われる採点は、非歌
唱区間かあるいは歌唱中でない期間に行われている。一
方、第1の採点部50Aで行われる採点は、有効歌唱区
間において歌い手が歌唱中である期間である。このた
め、差分データDiffbは無視される。 Fi’=Fi1 Li’=Li1
2) Mi1 * Si1 = 1, Mi2 * Si2 = 0 In this case, the scoring performed by the second scoring unit 50B is performed during a non-singing section or a period during which no singing is being performed. On the other hand, the scoring performed by the first scoring unit 50A is a period during which the singer is singing in the effective singing section. Therefore, the difference data Diffb is ignored. Fi '= Fi1 Li' = Li1

【0043】3)Mi1*Si1=0、Mi2*Si2=1 この場合、第1の採点部50Aで行われる採点は、非歌
唱区間かあるいは歌唱中でない期間に行われている。一
方、第2の採点部50Bで行われる採点は、有効歌唱区
間において歌い手が歌唱中である期間である。このた
め、差分データDiffaは無視される。 Fi’=Fi2 Li’=Li2
3) Mi1 * Si1 = 0, Mi2 * Si2 = 1 In this case, the scoring performed by the first scoring unit 50A is performed during a non-singing section or a period during which no singing is being performed. On the other hand, the scoring performed by the second scoring unit 50B is a period during which the singer is singing in the effective singing section. Therefore, the difference data Diffa is ignored. Fi '= Fi2 Li' = Li2

【0044】このよう合成手段50Cを構成することに
よって、例えば、デュエット曲の混成歌唱区間で、男性
の歌い手が正しく歌唱して、女性の歌い手が歌唱しなか
った場合、女性の歌い手が歌唱しなっかた部分について
は採点の対象外とされ、正しく歌唱した男性の歌い手の
歌唱力をもって両者の歌唱力とすることが可能となる。
また、デュエット曲の単独歌唱区間において、本来歌唱
すべきでない歌唱音声は採点対象とならず、本来予定さ
れている歌唱音声のみに基づいて、正確な採点結果を得
ることができる。
By configuring the synthesizing means 50C in this way, for example, in a mixed singing section of a duet song, if a male singer sings correctly and a female singer does not sing, the female singer will not sing. The score is excluded from the score, and the singing ability of a male singer who sings correctly can be used as both singing skills.
In addition, in a single singing section of a duet song, singing voices that should not be sung originally are not to be scored, and accurate scoring results can be obtained based only on originally planned singing voices.

【0045】次に、評価部50Dは、記憶部等(図示せ
ず)から構成されており、差分データDiffa,Diffbまた
は合成差分データDiffcに基づいて 、採点結果を算出す
る。差分データDiffa,Diffbまたは合成差分データDiff
cが入力されると、記憶部(すなわち、RAM32の差
分データ記憶エリア322)に蓄積記憶される。この場
合、Diffa,DiffbまたはDiffcのうちどのデータを記憶
部に蓄積するかは、CPU30によって制御される。こ
の蓄積は曲の演奏中随時行われる。
Next, the evaluation unit 50D comprises a storage unit and the like (not shown), and calculates a scoring result based on the difference data Diffa, Diffb or the combined difference data Diffc. Difference data Diffa, Diffb or synthetic difference data Diff
When c is input, it is stored in the storage unit (that is, the difference data storage area 322 of the RAM 32). In this case, the CPU 30 controls which data of Diffa, Diffb, or Diffc is stored in the storage unit. This accumulation is performed at any time during the performance of the music.

【0046】曲の演奏が終了すると、評価部50Dは、
記憶部に蓄積された差分データを順次読み出してこれら
を音高、音量の各音楽要素毎に累算し、各累算値に基づ
いて各々採点のための減算値を求める。そして、各減算
値を満点(100点)から減算して各音楽要素毎の得点
を求め、これらの平均値を採点結果として出力する。
When the performance of the music is completed, the evaluation unit 50D
The difference data stored in the storage unit is sequentially read, and these are accumulated for each musical element of pitch and volume, and subtraction values for scoring are obtained based on the accumulated values. Then, each subtracted value is subtracted from a perfect score (100 points) to obtain a score for each music element, and an average value of these is output as a scoring result.

【0047】ところで、カラオケ装置で歌唱される曲に
は、二人の歌い手が歌唱力を競うために設けられたバト
ル曲がある。バトル曲の歌唱にあっては、セレクタ48
がストレートモードに設定され、第1の採点部50Aと
第2の採点部50Bで別々に採点が行われ、差分データ
Diffa,Diffbが生成される。この場合、評価部50D
は、図9に示すブロック図で表すことができる。
The songs sung by the karaoke apparatus include battle songs provided for two singers to compete for singing ability. For singing battle songs, the selector 48
Is set to the straight mode, the first scoring unit 50A and the second scoring unit 50B perform scoring separately, and the difference data
Diffa and Diffb are generated. In this case, the evaluation unit 50D
Can be represented by the block diagram shown in FIG.

【0048】図に示すように、評価部50Dは、第1〜
第4の評価関数演算部510〜540、第1,第2の比
較部550,560、乱数発生部570、および判定部
580によって構成される。ここで、第1,第2の評価
関数演算部510,520は、評価関数Q1(X)を用
いて採点を行って採点結果Q1a,Q1bを算出する。
また、第3,第4の評価関数演算部530,540は、
評価関数Q2(X)を用いて採点を行って採点結果Q2
a,Q2bを算出する。評価関数Q1(X)と評価関数
Q2(X)とは互いに相違するものである。例えば、評
価関数Q1(X)では音量差を重視して評価し、一方、
評価関数Q2(X)では音程差を重視して評価を行うも
のとすれば、評価関数Q1(X),Q2(X)は、以下
の式で表される。 Q1(X)=k1*Fi+k2*Li Q2(X)=k3*Fi+k4*Li ただし、k1>k3、k2<k4であるものとする。
As shown in the figure, the evaluation section 50D comprises
It comprises a fourth evaluation function operation unit 510 to 540, first and second comparison units 550 and 560, a random number generation unit 570, and a determination unit 580. Here, the first and second evaluation function calculation units 510 and 520 perform scoring using the evaluation function Q1 (X) to calculate scoring results Q1a and Q1b.
In addition, the third and fourth evaluation function calculation units 530 and 540
Scoring is performed using the evaluation function Q2 (X), and the scoring result Q2
a, Q2b are calculated. The evaluation function Q1 (X) and the evaluation function Q2 (X) are different from each other. For example, in the evaluation function Q1 (X), the evaluation is performed with emphasis on the volume difference.
Assuming that the evaluation function Q2 (X) performs evaluation with emphasis on the pitch difference, the evaluation functions Q1 (X) and Q2 (X) are expressed by the following equations. Q1 (X) = k1 * Fi + k2 * Li Q2 (X) = k3 * Fi + k4 * Li where k1> k3 and k2 <k4.

【0049】また、採点結果Q1a,Q1b,Q2a,
Q2bは、以下の式で表される。 Q1a=100−(k1*Fi1+k2*Li1) Q1b=100−(k1*Fi2+k2*Li2) Q2a=100−(k3*Fi1+k4*Li1) Q2b=100−(k3*Fi2+k4*Li2)
The scoring results Q1a, Q1b, Q2a,
Q2b is represented by the following equation. Q1a = 100- (k1 * Fi1 + k2 * Li1) Q1b = 100- (k1 * Fi2 + k2 * Li2) Q2a = 100- (k3 * Fi1 + k4 * Li1) Q2b = 100- (k3 * Fi2 + k4 * Li2)

【0050】次に、第1の比較部550は採点結果Q1
a,Q1bを比較して、それらの大小関係を算出する。
比較結果としては、Q1a大、Q1b大および一致の三
種類がある。ところで、第1の比較部550において
は、Fi1=Fi2かつLi1=Li2の場合、また
は、以下に示す式が成立する場合には、Q1a=Q1b
となる。 k1/k2=(Li2−Li1)/(Fi1−Fi2) この場合には、同一の採点結果となってしまうので、歌
唱力の優劣を判定することができない。しかしながら、
バトル曲は、その判定結果によって、歌い手や周りの聴
衆はカラオケの雰囲気を盛り上げるために歌唱されるも
のである。したがって、判定結果が引き分けであると、
せっかく歌唱しても面白味に欠けてしまう。そこで、本
実施形態にあっては、第3,第4の評価関数演算部53
0,540を設け、第2の評価関数Q2(x)で歌唱力
の優劣を評価できるようにしている。
Next, the first comparing unit 550 determines the scoring result Q1
a and Q1b are compared to calculate their magnitude relationship.
There are three types of comparison results: large Q1a, large Q1b, and coincidence. By the way, in the first comparing section 550, when Fi1 = Fi2 and Li1 = Li2, or when the following equation is satisfied, Q1a = Q1b
Becomes k1 / k2 = (Li2-Li1) / (Fi1-Fi2) In this case, since the same scoring result is obtained, it is not possible to judge the singing ability. However,
The battle tune is sung by a singer or a surrounding audience to enhance the karaoke atmosphere according to the determination result. Therefore, if the determination result is a draw,
Even if you sing it, you will not enjoy it. Therefore, in the present embodiment, the third and fourth evaluation function operation units 53
0,540 is provided so that the singing ability can be evaluated by the second evaluation function Q2 (x).

【0051】次に、第2の比較部560は採点結果Q2
a,Q2bを比較して、それらの大小関係を算出する。
比較結果としては、Q2a大、Q2b大および一致の三
種類がある。次に、乱数発生部570は2進数の乱数を
発生し、最下位ビットを乱数Mとして出力する。乱数の
発生は、例えば、M系列の符号発生回路を用いればよ
い。
Next, the second comparing section 560 determines the score result Q2
a and Q2b are compared to calculate their magnitude relationship.
There are three types of comparison results: large Q2a, large Q2b, and coincidence. Next, the random number generator 570 generates a binary random number and outputs the least significant bit as a random number M. The random number may be generated by using, for example, an M-sequence code generation circuit.

【0052】次に、判定部580は、第1,第2の比較
部550,560の比較結果および乱数Mに基づいて、
歌唱力の優劣の判定を行う。まず、第1の比較部550
の比較結果がQ1a大またはQ1b大を示す場合には、
これらに基づいて判定を行う。Q1a大の場合には、マ
イク47aで歌唱した歌い手の勝ちとし、一方、Q1b
大の場合にはマイク47bで歌唱した歌い手の勝ちとす
る判定結果を生成する。
Next, the judging section 580 calculates the random number M based on the comparison result of the first and second comparing sections 550 and 560 and the random number M.
The singing ability is judged. First, the first comparison unit 550
If the comparison result indicates that Q1a is large or Q1b is large,
A determination is made based on these. In the case of Q1a large, the singer who sang with the microphone 47a wins, while Q1b
In the case of large, a determination result indicating that the singer sung by the microphone 47b wins is generated.

【0053】次に、第1の比較部550の比較結果が一
致を示し、かつ、第2の比較部560の比較結果がQ2
a大またはQ2b大を示す場合には、第2の比較部56
0の比較結果に基づいて判定を行う。具体的には、Q2
a大の場合には、マイク47aで歌唱した歌い手の勝ち
とし、一方、Q2b大の場合にはマイク47bで歌唱し
た歌い手の勝ちとする判定結果を生成する。
Next, the comparison result of the first comparison section 550 indicates a match, and the comparison result of the second comparison section 560 indicates Q2.
In the case of a large or Q2b large, the second comparison unit 56
The determination is made based on the comparison result of 0. Specifically, Q2
In the case of large a, a determination result is generated that the singer sung by the microphone 47a wins the microphone 47a, while in the case of the large Q2b, the singer sung by the microphone 47b wins.

【0054】次に、第1,第2の比較部550,560
がいずれも一致を示す場合には、判定部580は、乱数
Mに基づいて、判定を行う。具体的には、乱数Mが
「1」の場合には、マイク47aで歌唱した歌い手の勝
ちとし、一方、乱数Mが「0」の場合にはマイク47b
で歌唱した歌い手の勝ちとする判定結果を生成する。
Next, the first and second comparison units 550 and 560
If any of these indicate a match, the determination unit 580 makes a determination based on the random number M. Specifically, when the random number M is "1", the singer who sang with the microphone 47a wins, while when the random number M is "0", the microphone 47b
To generate a determination result indicating that the singer who has sung the song has won.

【0055】これにより、バトル曲を歌唱した場合、評
価関数Q1(x)による評価が二人の歌い手で同一であ
っても、評価関数Q2(x)によって歌唱力の優劣を判
定することができる。また、評価関数Q1(x),Q2
(x)による評価が同一であっても、乱数Mによって優
劣を付けることができる。この結果。歌唱力の優劣を必
ず付けることができ、歌唱の雰囲気を盛り上げることが
できる。
Thus, when a battle song is sung, even if the evaluations by the evaluation function Q1 (x) are the same for two singers, it is possible to determine the superiority of the singing ability by the evaluation function Q2 (x). . Further, the evaluation functions Q1 (x), Q2
Even if the evaluation by (x) is the same, it is possible to give priority by the random number M. As a result. Singing ability can always be added, and the atmosphere of singing can be enhanced.

【0056】C:実施形態の動作 次に、本実施形態による動作について説明する。なお、
この例においては、特に断らない限り、歌い手は歌唱す
べき区間で歌唱中であり、歌唱状態データSi=1であ
ったものとする。 C−1:バトル曲を歌唱する場合 まず、二人の歌い手が、バトル曲を歌唱する場合につい
て図10を参照しつつ説明する。この例のバトル曲は、
図10に示すように前奏・間奏区間t1,t5および第
1〜第3歌唱区間t2〜t4から構成されているものと
する。この場合には、各歌い手毎に採点する必要がある
ため、図10(B)に示すようにセレクタ48はストレ
ートモードに設定される。
C: Operation of Embodiment Next, the operation of this embodiment will be described. In addition,
In this example, it is assumed that the singer is singing in the section to be sung and singing state data Si = 1 unless otherwise specified. C-1: Case of Singing a Battle Song First, a case where two singers sing a battle song will be described with reference to FIG. The battle song in this example is
As shown in FIG. 10, it is assumed that the preamble / interlude sections t1 and t5 and the first to third singing sections t2 to t4 are included. In this case, since it is necessary to score for each singer, the selector 48 is set to the straight mode as shown in FIG.

【0057】バトル曲の歌唱をリモコン51の操作によ
って指定すると、CPU30はリモコン受信部33から
の信号に基づいて、これを検知する。この後、CPU3
0は、HDD37から複数のキャラクタデータを読み出
して、これらをモニタ46に表示する。歌い手は、モニ
タ46に表示されるキャラクタの中から好みのキャラク
タをリモコン51の操作によって選択する。この後、C
PU30は、モニタ46の画面の左上と右上に対戦する
キャラクタを表示する。この場合、キャラクタの大きさ
は歌唱音声の入力レベルに応じて変化する。したがっ
て、歌い手は各マイク47a,47bに向かって発声す
ることによって、自分のキャラクタを確認することがで
きる。
When the singing of the battle tune is designated by operating the remote controller 51, the CPU 30 detects this based on a signal from the remote controller receiving unit 33. After this, CPU3
0 reads a plurality of character data from the HDD 37 and displays them on the monitor 46. The singer selects a favorite character from the characters displayed on the monitor 46 by operating the remote controller 51. After this, C
The PU 30 displays characters to be played at the upper left and upper right of the screen of the monitor 46. In this case, the size of the character changes according to the input level of the singing voice. Therefore, the singer can confirm his or her own character by speaking into each of the microphones 47a and 47b.

【0058】また、図7に示す第1の採点部50Aと第
2の採点部50Bには、同一のリファレンスメロディデ
ータ#Aが供給される。これにより、第1,第2の採点
部50A,50Bに各歌唱音声信号V1,V2が入力さ
れると、第1の採点部50Aと第2の採点部50Bは、
差分データDiffa,Diffbを生成する。この場合の採点は
各歌い手毎に行う必要があるので、評価部50Dは、差
分データDiffaに基づく採点結果と差分データDiffbに基
づく採点結果を各々生成し、これに基づいて歌唱力の優
劣を各歌唱区間毎に判定するとともに、曲の終了時点で
総合的な優劣を判定する。そして、判定結果に基づい
て、アニメーションがモニタ46に表示される。
The same reference melody data #A is supplied to the first scoring unit 50A and the second scoring unit 50B shown in FIG. Thus, when the singing voice signals V1 and V2 are input to the first and second scoring units 50A and 50B, the first scoring unit 50A and the second scoring unit 50B
Generate difference data Diffa and Diffb. In this case, it is necessary to perform scoring for each singer, so the evaluator 50D generates a scoring result based on the difference data Diffa and a scoring result based on the difference data Diffb, and determines the singing ability based on this. The determination is made for each singing section, and the overall superiority is determined at the end of the song. Then, an animation is displayed on the monitor 46 based on the determination result.

【0059】ここで、各歌唱区間t2〜t4におけるモ
ニタ46の表示動作を説明する。CPU30は、曲デー
タ中のガイドメロディデータの有無に基づいて歌唱区間
を検知すると、HDD37から動画データを読み出し、
これをモニタ46に表示させる。この場合の動画データ
は、図10(C)に示すように各キャラクタが闘ってい
るシーンS1を表すものである。なお、ここで用いられ
るキャラクタは、マイクの入力レベルをその大きさで表
すものと一致させる。このため、上述したリモコン51
の操作によって指定されたキャラクタの組に基づいて、
CPU30は動画データをHDD37から読み出す。
The display operation of the monitor 46 in each of the singing sections t2 to t4 will be described. When detecting the singing section based on the presence or absence of the guide melody data in the music data, the CPU 30 reads the moving image data from the HDD 37,
This is displayed on the monitor 46. The moving image data in this case represents a scene S1 in which each character is fighting as shown in FIG. The character used here matches the input level of the microphone with that represented by its size. Therefore, the remote controller 51 described above
Based on the character set specified by the operation of
The CPU 30 reads the moving image data from the HDD 37.

【0060】次に、各歌唱区間t2〜t4の終わりの部
分では、判定部580で生成される判定結果に基づい
て、キャラクタの勝ち負けを表す動画データを表示す
る。例えば、二人の歌い手が男の子と女の子を用いて対
戦し、女の子のキャラクタを用いて歌唱した歌いての歌
唱力が勝っているとすれば、図10(C)に示すよう
に、女の子が勝利したシーンS2がモニタ46に表示さ
れる。このため、CPU30は、判定結果とキャラクタ
の組に基づいて、動画データをHDD37から読み出
す。
Next, at the end of each of the singing sections t2 to t4, moving image data representing the winning or losing of the character is displayed based on the judgment result generated by the judging section 580. For example, if two singers fight against each other using a boy and a girl, and the singing power of the song sung using the character of the girl is superior, as shown in FIG. The scene S2 is displayed on the monitor 46. Therefore, the CPU 30 reads the moving image data from the HDD 37 based on the combination of the determination result and the character.

【0061】C−2:通常の曲を歌唱する場合 次に、一人の歌い手が通常の曲を歌唱する場合について
説明する。この場合には、いずれか一方の採点部によっ
て、差分データを生成してもよいが、本実施形態では、
ノイズの低減を図るために、第1,第2の採点部50
A,50Bで同時に処理を行い、その平均値に基づいて
採点を行うようにしている。このため、セレクタ48は
ミックスモードに設定され、第1の採点部50Aと第2
の採点部50Bには、同一のリファレンスメロディデー
タ#Aが供給される。そして、合成部50Cは差分デー
タDiffaと差分データDiffbの平均値を算出し、合成差分
データDiffcとして出力する。
C-2: Case of Singing a Normal Song Next, a case where one singer sings a normal song will be described. In this case, the difference data may be generated by one of the scoring units, but in this embodiment,
In order to reduce noise, the first and second scoring units 50
Processing is performed simultaneously at A and 50B, and scoring is performed based on the average value. For this reason, the selector 48 is set to the mix mode, and the first scoring unit 50A and the second
Are supplied with the same reference melody data #A. Then, the combining unit 50C calculates an average value of the difference data Diffa and the difference data Diffb, and outputs the average value as the combined difference data Diffc.

【0062】一般に、ノイズ成分はランダムノイズであ
るから、平均をとることによってその成分は3dB減少す
る。これに対して、信号成分は平均をとっても変化しな
い。したがって、合成差分データDiffc中の合成音高差
データFi’および合成音量差データLi’のSN比
は、差分データDiffa,差分データDiffbのそれと比較し
て、3dB改善される。これにより、A/Dコンバータ5
01a,501bにおいて、量子化する際に発生する誤
差や、音高を検出する際の誤差等によって生じるノイズ
成分を低減して、歌唱力を精度の良く採点することが可
能となる。
Generally, since the noise component is random noise, the average reduces the noise component by 3 dB. On the other hand, the signal component does not change even if the average is taken. Therefore, the SN ratio of the synthesized pitch difference data Fi ′ and the synthesized volume difference data Li ′ in the synthesized difference data Diffc is improved by 3 dB as compared with those of the difference data Diffa and the difference data Diffb. Thereby, the A / D converter 5
In 01a and 501b, it is possible to reduce a noise component caused by an error generated at the time of quantization, an error at the time of detecting a pitch, or the like, and to accurately score the singing ability.

【0063】C−3:デュエット曲を歌唱する場合 次に、男女の歌い手がデュエット曲を歌唱する場合につ
いて説明する。デュエット曲中には、一般に、男性のみ
が歌唱する男性歌唱区間、女性のみが歌唱する女性歌唱
区間、男性と女性が同時に歌唱する混成歌唱区間、およ
び両者がともに歌唱しない前奏・間奏区間がある。混成
区間にあっては、両者が同時に歌唱するため、歌唱力の
採点は、第1,第2の採点部50A,50Bの各々で行
う必要がある。これに対して、男性歌唱区間あるいは女
性歌唱区間では、いずれか一方で差分データを生成すれ
ば、採点を行うことができるが、本実施形態にあって
は、採点精度を向上させる目的で、この場合にも両方の
採点部を用いて差分データを生成し、これを合成部50
Cで平均して合成差分データを得ている。
C-3: Case of Singing Duet Song Next, a case where male and female singers sing a duet song will be described. In a duet song, there are generally a male singing section in which only men sing, a female singing section in which only women sing, a mixed singing section in which men and women sing simultaneously, and a prelude / interlude section in which both do not sing. In the hybrid section, since both sing at the same time, it is necessary to score the singing power in each of the first and second scoring units 50A and 50B. On the other hand, in the male singing section or the female singing section, scoring can be performed by generating difference data in one of them, but in the present embodiment, for the purpose of improving the scoring accuracy, Also in this case, difference data is generated using both the scoring units, and
C is averaged to obtain composite difference data.

【0064】この点について、図11を参照しつつ具体
的に説明する。なお、この例では、男性がマイク47a
で歌唱し、女性がマイク47bで歌唱するものとする。
図11(A)は、デュエット曲の進行の一例を示したも
のである。この例のデュエット曲は、前奏区間T1→男
性歌唱区間T2→女性歌唱区間T3→混成歌唱区間T4
→間奏区間T4の順に進行する。また、図11(B)は
セレクタ48のモードを示したものであり、図11
(C)はキャラクタの表示を示したものである。なお、
#Mを男性パートのリファレンスメロディデータ、#W
を女性パートのリファレンスメロディデータとして説明
する。なお、各歌唱区間の判別は、曲データ中の区間情
報に基づいてCPU30が判別すしている。
This point will be specifically described with reference to FIG. In this example, the male is the microphone 47a.
And the woman sings with the microphone 47b.
FIG. 11A shows an example of the progress of a duet song. The duet song in this example is a prelude section T1 → a male singing section T2 → a female singing section T3 → a mixed singing section T4.
→ Proceed in the order of the interlude section T4. FIG. 11B shows the mode of the selector 48.
(C) shows the display of the character. In addition,
#M is reference melody data of male part, #W
Will be described as reference melody data of the female part. The CPU 30 determines each singing section based on section information in the music data.

【0065】まず、前奏区間T1と間奏区間T5は、本
来の歌唱区間でないから、ガイドメロディは存在してお
らず、採点の対象外とされる。このため、セレクタ48
の切換モードは、スレートモード、ミックスモードのど
ちらであってもよいが、マイク47a,47bの確認を
容易に行えるようにスレートモードに設定される。とこ
ろで、デュエット曲は、男女が協力して歌唱するのが一
般である。このため、予め設定されている男女のキャラ
クタがモニタ46に表示され、特に、歌い手がキャラク
タの変更を希望する場合にのみ、リモコン51の操作に
よってキャラクタの変更が行われる。なお、この例にあ
っては、マイク47aが男性のキャラクタに、マイク4
7bが女性のキャラクタに対応している。
First, since the prelude section T1 and the interlude section T5 are not original singing sections, there is no guide melody and they are excluded from scoring. Therefore, the selector 48
May be either the slate mode or the mix mode, but is set to the slate mode so that the microphones 47a and 47b can be easily checked. By the way, duet songs are generally sung by men and women in cooperation. For this reason, predetermined male and female characters are displayed on the monitor 46. In particular, only when the singer wants to change the character, the character is changed by operating the remote controller 51. In this example, the microphone 47a is a male character and the microphone 4a is
7b corresponds to a female character.

【0066】前奏区間T1と間奏区間T5にあっては、
図11(C)に示すように、キャラクタCaとキャラク
タCbがモニタ46の左上と右上に表示される。ここ
で、歌い手がマイク47aに向かって発声したとする
と、男性のキャラクタCaが大きくなり、キャラクタC
a’に変化する。これにより、女性の歌い手がマイク4
7aに向かって発声したとすれば、マイクを取り違えて
いることを認識できる。
In the prelude section T1 and the interlude section T5,
As shown in FIG. 11C, the characters Ca and Cb are displayed on the upper left and upper right of the monitor 46. Here, assuming that the singer speaks toward the microphone 47a, the male character Ca becomes large and the character C becomes large.
a '. This allows the female singer to use microphone 4
If it is uttered toward 7a, it can be recognized that the microphone has been mistaken.

【0067】次に、男性歌唱区間T2にあっては、セレ
クタ48はミックスモードに設定される。この場合、C
PU30は、セレクタ48の入力端子X1と出力端子Y
1,Y2を接続状態にし、セレクタ48の入力端子X2
を開放状態にするように制御する。このため、マイク4
7aから出力される男性の歌唱音声信号V1は、第1の
採点部50Aと第2の採点部50Bに供給される。この
区間にあっては、第1,第2の採点部50A,50Bに
は、リファレンスメロディデータ#Mが供給される。し
たがって、男性の歌唱音声信号V1と男性パートのリフ
ァレンスメロディデータ#Mが二つの採点部50A,5
0Bによって比較され、その平均値が合成部50Cにお
いて生成される。評価部50Dは合成部50Cからの合
成差分データDiffcに基づいて当該区間の採点を行う。
この場合の合成差分データDiffcは、差分データDiffat,
Diffbと比較してSN比が改善されたものとなる。
Next, in the male singing section T2, the selector 48 is set to the mix mode. In this case, C
The PU 30 has an input terminal X1 and an output terminal Y of the selector 48.
1 and Y2 are connected, and the input terminal X2
Is controlled to be in an open state. For this reason, microphone 4
Male singing voice signal V1 output from 7a is supplied to first scoring unit 50A and second scoring unit 50B. In this section, the reference melody data #M is supplied to the first and second scoring units 50A and 50B. Therefore, the male singing voice signal V1 and the reference melody data #M of the male part are included in the two scoring units 50A and 50A.
OB, and the average value is generated in the synthesis unit 50C. The evaluation unit 50D scores the section based on the combined difference data Diffc from the combining unit 50C.
The combined difference data Diffc in this case is the difference data Diffat,
The SN ratio is improved as compared with Diffb.

【0068】この区間は、男性のみの歌唱区間である
が、歌い慣れていない歌い手は、このことが分からない
場合もある。そこで、本実施形態にあっては、女性のキ
ャラクタCbの大きさを小さくしたキャラクタCbsを
モニタ46に表示するようにして、男性が歌唱する区間
であることを歌い手に認識させるようにしている。この
場合、キャラクタCbsのデータは、HDD37から読
み出したデータに基づいて、CPU30が画像の縮小処
理を施すことによって生成される。なお、マイク47b
に向かって発声しても、キャラクタCbsの大きさは変
化しないようになっている。
This section is a singing section only for men, but a singer who is not used to singing may not know this. Therefore, in the present embodiment, the character Cbs in which the size of the female character Cb is reduced is displayed on the monitor 46 so that the singer can recognize that the section is a section where a male sings. In this case, the data of the character Cbs is generated by the CPU 30 performing image reduction processing based on the data read from the HDD 37. The microphone 47b
, The size of the character Cbs does not change.

【0069】次に、女性歌唱区間T3にあっては、男性
歌唱区間T2と同様にセレクタ48はミックスモードに
設定される。ただし、セレクタ48の内部の接続状態は
男性歌唱区間T2と相違する。この場合、CPUは、セ
レクタ48の入力端子X2と出力端子Y1,Y2を接続
状態にし、セレクタ48の入力端子X1を開放状態にす
るように制御する。このため、男性の歌唱音声信号V1
は、セレクタ48から出力されない。二人の歌い手のう
ち一方のみが歌唱すべき区間において、両方の歌唱音声
信号を混合して出力端子Y1,Y2に出力せず、他方の
マイクからの入力を開放としたのは、例えば、女性歌唱
区間T3において、男性が手拍子を行うと、それがノイ
ズとして混入され、女性の歌唱力を正当に評価すること
ができないからである。
Next, in the female singing section T3, the selector 48 is set to the mix mode as in the male singing section T2. However, the connection state inside the selector 48 is different from the male singing section T2. In this case, the CPU controls the input terminal X2 of the selector 48 to connect to the output terminals Y1 and Y2, and controls the input terminal X1 of the selector 48 to open. Therefore, the male singing voice signal V1
Is not output from the selector 48. In a section in which only one of the two singers should sing, both singing voice signals are not mixed and output to the output terminals Y1 and Y2, and the input from the other microphone is opened, for example, This is because, in the singing section T3, when a male claps, the noise is mixed as noise, and the singing ability of the female cannot be properly evaluated.

【0070】こうして、女性の歌唱音声信号V2が第
1,第2の採点部50A,50Bに供給されると、第
1,第2の採点部50A,50Bは、リファレンスメロ
ディデータ#Wに基づいて比較を行なう。この比較結果
が合成部50Cによって平均化され、合成差分データDi
ffcとして出力されると、評価部50Dは合成差分デー
タDiffcに基づいて当該区間の採点を行う。この場合
も、男性歌唱区間Tと同様に、合成差分データDiffc
は、差分データDiffat,Diffbと比較してSN比が改善さ
れたものとなる。
In this way, when the female singing voice signal V2 is supplied to the first and second scoring units 50A and 50B, the first and second scoring units 50A and 50B receive the singing voice signal V2 based on the reference melody data #W. Make a comparison. The comparison result is averaged by the synthesis unit 50C, and the synthesized difference data Di
When output as ffc, the evaluation unit 50D scores the section based on the combined difference data Diffc. Also in this case, similarly to the male singing section T, the synthetic difference data Diffc
Means that the SN ratio is improved as compared with the difference data Diffat, Diffb.

【0071】また、この区間は、男性歌唱区間とは逆
に、女性のみの歌唱区間であることを歌い手に認識させ
るため、男性のキャラクタCaの大きさを小さくしたキ
ャラクタCasをモニタ46に表示するようにして、女
性が歌唱する区間であることを歌い手に認識させるよう
にしている(図11(C)参照)。この場合、キャラク
タCasのデータは、HDD37から読み出したデータ
に基づいて、CPU30が画像の縮小処理を施すことに
よって生成される。なお、マイク47aに向かって発声
しても、キャラクタCasの大きさが変化しない点は、
男性歌唱区間においてキャラクタCbsの大きさが変化
しない点と同様である。
Also, in order to make the singer recognize that this section is a singing section only for women, contrary to the male singing section, a character Cas in which the size of the male character Ca is reduced is displayed on the monitor 46. In this way, the singer is made to recognize that the section is a section where a woman sings (see FIG. 11C). In this case, the data of the character Cas is generated by the CPU 30 performing image reduction processing based on the data read from the HDD 37. In addition, the point that the size of the character Cas does not change even when uttered toward the microphone 47a is as follows.
This is similar to the point that the size of the character Cbs does not change in the male singing section.

【0072】次に、混成歌唱区間にあっては、セレクタ
48はストレートモードに設定される。この場合、CP
U30は、セレクタ48の入力端子X1と出力端子Y1
を接続状態にし、その入力端子X2を出力端子Y1を接
続状態にするように制御する。このため、男性の歌唱音
声信号V1が第1の採点部50Aに、女性の歌唱音声信
号V2が第2の採点部50Bに供給される。この区間に
あっては、第1,第2の採点部50A,50Bに、リフ
ァレンスメロディデータ#M,#Wを各々供給する。こ
のため、第1,第2の採点部50A,50Bからは、異
なる差分データDiffa,Diffbが出力される。合成部50
Cは、両者の平均値を算出して合成差分データDiffcを
生成する。
Next, in the hybrid singing section, the selector 48 is set to the straight mode. In this case, CP
U30 is an input terminal X1 and an output terminal Y1 of the selector 48.
Are connected, and the input terminal X2 is controlled to connect the output terminal Y1. Therefore, the male singing voice signal V1 is supplied to the first scoring unit 50A, and the female singing voice signal V2 is supplied to the second scoring unit 50B. In this section, reference melody data #M and #W are supplied to the first and second scoring units 50A and 50B, respectively. Therefore, different difference data Diffa, Diffb are output from the first and second scoring units 50A, 50B. Combiner 50
C calculates the average value of the two, and generates composite difference data Diffc.

【0073】ここで、当該区間の一部において女性が歌
唱しなっかたとすると、当該期間にあっては、合成部5
0Cは、平均値を算出するのではなく、第1の採点部5
0Aによって生成された音高差データFi1、音量差デ
ータLi1を合成差分データDiffcとして出力する。こ
れにより、男性の歌唱力によって総合的な採点を行うこ
とができる。
Here, if it is assumed that a woman does not sing in a part of the section, the combining section 5
0C does not calculate the average value, but the first scoring unit 5
The pitch difference data Fi1 and the volume difference data Li1 generated by 0A are output as combined difference data Diffc. Thereby, comprehensive scoring can be performed by the male singing ability.

【0074】また、混成歌唱区間にあっては、通常の大
きさのキャラクタCaとキャラクタCbがモニタ46の
左上と右上に表示される。この場合、キャラクタCa,
Cbの大きさは、歌唱音声のレベルに応じて変動する。
In the hybrid singing section, characters Ca and Cb of normal size are displayed on the upper left and upper right of the monitor 46. In this case, the characters Ca,
The magnitude of Cb varies according to the level of the singing voice.

【0075】このように、本実施形態によれば、バトル
曲において、複数の評価関数を用いて採点を行い優劣を
決定するので、引き分けを少なくすることができ、さら
に、いずれの評価関数による採点結果が一致する場合に
は、乱数Mを用いて優劣を決定するから、引き分けを一
切なくすことができる。また、各マイク47a,47b
の入力レベルをキャラクタの大きさとして表示するの
で、音量を一見して知ることができる。さらに、歌唱す
べきマイクの種類を容易に判別することもできる。
As described above, according to the present embodiment, a score is determined by using a plurality of evaluation functions in a battle tune to determine the priority, so that the number of draws can be reduced. If the results match, the priority is determined using the random number M, so that no draw can be made. In addition, each microphone 47a, 47b
Is displayed as the size of the character, so that the volume can be known at a glance. Further, it is possible to easily determine the type of microphone to be sung.

【0076】また、楽曲データとリモコン51の操作の
組み合わせに基づいて、CPU30は、セレクタ48の
切換と第1,第2の採点部50A,50Bに供給するリ
ファレンスガイドメロディデータを制御するので、第
1,第2の採点部50A,50Bを有効に活用して、精
度の良くかつ妥当な採点結果を算出することが可能とな
る。すなわち、一人の歌い手が歌唱する場合には、SN
比を改善した合成差分データDiffcに基づいて採点結果
を得ることができ、デュエット曲においては、歌唱区間
の性質に応じて、合成部50Cの動作を切り替えること
によって精度の良くかつ妥当な採点結果を算出すること
ができる。
The CPU 30 controls the switching of the selector 48 and the reference guide melody data supplied to the first and second scoring units 50A and 50B based on the combination of the music data and the operation of the remote controller 51. By using the first and second scoring units 50A and 50B effectively, it is possible to calculate an accurate and appropriate scoring result. That is, when one singer sings, SN
A scoring result can be obtained based on the synthetic difference data Diffc with the improved ratio. In a duet song, an accurate and appropriate scoring result can be obtained by switching the operation of the synthesizing unit 50C according to the nature of the singing section. Can be calculated.

【0077】D:変形例 なお、本発明は、上述した実施形態には限定されず、以
下のような各種の変形が可能である。 (1)例えば、実施形態では、デュエット曲をカラオケ
演奏する場合を例としたが、これに限らず、3つ以上の
ボーカルパートからなるコーラスの歌唱に対応すべく拡
張することも可能である。この場合、採点処理部50を
パートの数に対応した系統に拡張し、ガイドメロディも
パートの数に対応したトラック数だけ用意すればよい。 (2)また、実施形態のように、採点結果として各音楽
要素の平均値を求めるのではなく、音高、音量あるいは
リズムの得点を各音楽要素毎の採点結果として出力して
もよい。
D: Modifications The present invention is not limited to the above-described embodiment, and various modifications as described below are possible. (1) For example, in the embodiment, a case in which a duet song is performed by karaoke is described as an example. However, the present invention is not limited to this, and the present invention can be extended to accommodate a chorus singing composed of three or more vocal parts. In this case, the scoring processing unit 50 may be extended to a system corresponding to the number of parts, and guide melody may be prepared by the number of tracks corresponding to the number of parts. (2) Also, as in the embodiment, instead of obtaining the average value of each music element as the scoring result, the score of the pitch, volume or rhythm may be output as the scoring result for each music element.

【0078】(3)また、採点処理は、曲が終了した後
にまとめて採点を行っているが、フレーズ単位、音符単
位で基本評価を行い、曲終了後にそれを集計するように
してもよい。さらに、フレーズ単位毎に採点結果をモニ
タ46に表示し、曲終了後に最終的な採点結果を表示し
てもよい。 (4)また、実施形態では、デュエット曲においてボー
カルのパート毎に得られる得点の平均値を出力したが、
個別に出力するようにしてもよいし、あるいは、両方を
出力するようにしてもよい。個別に出力する場合は、差
分データDiffa,Diffb各々に基づいて採点結果を評価部
50Dで算出すればよい。 (5)その他、複数の歌唱音声のうち採点結果の最も高
い者の点数を強調表示するなど、種々の表示態様を採用
することによって利用者の楽しみをさらに増すことがで
きる。
(3) In the grading process, the grading is performed collectively after the music is completed. However, the basic evaluation may be performed in units of phrases and musical notes, and the evaluation may be totaled after the music is completed. Further, the scoring result may be displayed on the monitor 46 for each phrase unit, and the final scoring result may be displayed after the song ends. (4) In the embodiment, the average value of the scores obtained for each vocal part in the duet music is output.
You may make it output individually, or you may make it output both. In the case of outputting individually, the scoring result may be calculated by the evaluation unit 50D based on each of the difference data Diffa and Diffb. (5) In addition, the user's enjoyment can be further increased by adopting various display modes, such as highlighting the score of the highest scoring result among the plurality of singing voices.

【0079】(6)また、実施形態においては、第1,
第2の評価関数演算部510,520で評価関数Q1
(x)による演算を行い、一方、第3,第4の評価関数
演算部530,540で評価関数Q2(x)による演算
を行ったが、第1,第2の評価関数演算部510,52
0を時分割で動作させ、一方を省略してもよい。また同
様に、第3,第4の評価関数演算部530,540を時
分割で動作させ、一方を省略してもよい。さらに、これ
らの機能をCPU30で行うようにしてもよい。
(6) In the embodiment, the first,
The second evaluation function calculation units 510 and 520 perform evaluation function Q1
(X), while the third and fourth evaluation function calculation units 530 and 540 perform the calculation using the evaluation function Q2 (x), but the first and second evaluation function calculation units 510 and 52
0 may be operated in a time-sharing manner, and one may be omitted. Similarly, the third and fourth evaluation function calculation units 530 and 540 may be operated in a time division manner, and one of them may be omitted. Further, these functions may be performed by the CPU 30.

【0080】(7)また、実施形態において、デュエッ
ト曲を歌唱する場合、男性歌唱区間、女性歌唱区間にお
いては、歌唱が予定されていない歌唱音声信号に対応す
るキャラクタは大きさを縮小してモニタ46に表示する
ようにしたが、対応しないキャラクタはモニタ46に表
示しないようにしてもよい。この場合、CPU30は楽
曲データに基づいて男性・女性歌唱区間を検出し、検出
結果に基づいてモニタ46に表示するキャラクタを選択
すればよい。
(7) In the embodiment, when singing a duet song, in a male singing section and a female singing section, characters corresponding to singing voice signals for which no singing is scheduled are reduced in size and monitored. Although the characters are displayed on the monitor 46, characters that do not correspond may not be displayed on the monitor 46. In this case, the CPU 30 may detect a male / female singing section based on the music data and select a character to be displayed on the monitor 46 based on the detection result.

【0081】(8)また、実施形態においては、第1,
第2の評価関数演算部510,520を設けたが、評価
関数演算部をいずれか一つにし、優劣がつかない判定に
なった場合には、乱数発生部570が発生する乱数によ
って優劣を決定するように構成してもよい。
(8) In the embodiment, the first,
Although the second evaluation function operation units 510 and 520 are provided, if one of the evaluation function operation units is used and the judgment is that there is no priority, the random number generation unit 570 determines the priority based on the random numbers generated. May be configured.

【0082】[0082]

【発明の効果】以上説明したように、この発明によれ
ば、二人の歌い手が歌唱する場合に、歌唱力の優劣を必
ずつけることができる。また、歌唱音量をモニタに表示
させるので、歌い手は自分の歌唱音量を知ることができ
る。また、二人の歌い手が歌唱する場合には、各歌い手
が歌唱すべきマイクを認識することができる。
As described above, according to the present invention, when two singers sing, the singing ability can be always determined. Also, since the singing volume is displayed on the monitor, the singer can know his or her singing volume. Also, when two singers sing, each singer can recognize the microphone to sing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施形態によるカラオケ装置の
構成を示すブロックである。
FIG. 1 is a block diagram illustrating a configuration of a karaoke apparatus according to an embodiment of the present invention.

【図2】 同実施形態における楽曲データのデータフォ
ーマットを示す図である。
FIG. 2 is a diagram showing a data format of music data in the embodiment.

【図3】 同楽曲データの楽音トラックの構成を示す図
である。
FIG. 3 is a diagram showing a configuration of a music track of the music data.

【図4】 同楽曲データの楽音トラック以外のトラック
の構成を示す図である。
FIG. 4 is a diagram showing a configuration of a track other than a musical tone track of the music data.

【図5】 同カラオケ装置におけるRAMのメモリマッ
プの内容を示す図である。
FIG. 5 is a diagram showing contents of a memory map of a RAM in the karaoke apparatus.

【図6】 同カラオケ装置における歌唱音量レベルとキ
ャラクタの大きさの関係を示す図である。
FIG. 6 is a diagram showing a relationship between a singing volume level and a character size in the karaoke apparatus.

【図7】 同カラオケ装置における採点処理部の構成を
示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a scoring processing unit in the karaoke apparatus.

【図8】 (A)は同実施形態におけるガイドメロディ
の例を五線譜で示す図、(B)は同ガイドメロディに基
づくリファレンスの音高データおよび音量データを示す
図、(C)は歌唱音声の音高データ、音量データおよび
歌唱状態データを示す図である。
8A is a diagram showing an example of a guide melody in the embodiment in a staff notation, FIG. 8B is a diagram showing pitch data and volume data of a reference based on the guide melody, and FIG. It is a figure which shows pitch data, volume data, and singing state data.

【図9】 同カラオケ装置においてバトル曲が歌唱され
る場合における評価部50Dの機能を示すブロック図で
ある。
FIG. 9 is a block diagram showing functions of an evaluation unit 50D when a battle song is sung in the karaoke apparatus.

【図10】 同カラオケ装置においてバトル曲を歌唱す
る場合のタイミングチャートである。
FIG. 10 is a timing chart when singing a battle song in the karaoke apparatus.

【図11】 同カラオケ装置においてデュエット曲を歌
唱する場合のタイミングチャートである。
FIG. 11 is a timing chart in the case of singing a duet song in the karaoke apparatus.

【符号の説明】[Explanation of symbols]

30…CPU(制御手段、採点手段)、31…ROM、
32…RAM、37…ハードディスク装置、38…音源
装置、46…モニタ、47a,47b…マイク(第1,
第2のマイクロホン)、48…セレクタ(選択手段)、
49…音声処理用DSP、50…採点処理部、501
a,501b…A/Dコンバータ、502a,502b
…データ抽出部(第1,第2の抽出手段)、503a,
503b…比較部(第1,第2の比較手段)、510,
520…第1,第2の評価関数演算部(第1の評価
部)、550…第1,第2の比較部(第1の評価部)、
530,540…第3,第4の評価関数演算部(第2の
評価部)、560…第2の比較部(第2の評価部)、5
70…乱数発生部、580…判定部。
30 CPU (control means, scoring means), 31 ROM
32 RAM, 37 hard disk device, 38 sound source device, 46 monitor, 47a, 47b microphone (first,
A second microphone), 48 ... selector (selection means),
49 DSP for voice processing, 50 Scoring processing unit, 501
a, 501b... A / D converter, 502a, 502b
... Data extraction unit (first and second extraction means), 503a,
503b... Comparison unit (first and second comparison means), 510,
520: first and second evaluation function operation units (first evaluation unit) 550: first and second comparison units (first evaluation unit)
530, 540... Third and fourth evaluation function calculation units (second evaluation unit), 560... Second comparison unit (second evaluation unit), 5
70: random number generation unit, 580: judgment unit.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 曲データに基づいて演奏を行うカラオケ
装置において、 第1のマイクロホンから取り込まれる歌唱音声信号と第
2のマイクロホンから取り込まれる歌唱音声信号とを混
合または選択して第1の出力端子と第2の出力端子から
出力する選択手段と、 前記第1の出力端子から出力される前記歌唱音声信号に
基づいて音楽要素の特徴量を抽出する第1の抽出手段
と、 前記第1の抽出手段の抽出結果と前記曲データが示す第
1の基準値を比較して第1の比較結果を生成する第1の
比較手段と、 前記第2の出力端子から出力される前記歌唱音声信号に
基づいて音楽要素の特徴量を抽出する第2の抽出手段
と、 前記第2の抽出手段の抽出結果と前記曲データが示す第
2の基準値を比較して第2の比較結果を生成する第2の
比較手段と、 前記第1の比較結果と前記第2の比較結果を一の評価基
準に基づいて評価して、歌唱力の優劣を定める第1の評
価部と、 前記第1の比較結果と前記第2の比較結果を他の評価基
準に基づいて評価して、歌唱力の優劣を定める第2の評
価部と、 前記第1の評価部と前記第2の評価部の評価結果のう
ち、一方の評価結果が優劣無しを示し、他方の評価結果
が優劣有りを示す場合には、優劣有りを示す評価結果に
基づいて、歌唱力の優劣を判定する判定部と前記曲デー
タに基づいて、前記選択手段の切換と前記第1,第2の
基準値の設定とを同期して制御する制御手段とを備える
ことを特徴とするカラオケ装置。
1. A karaoke apparatus for performing music based on music data, wherein a singing voice signal fetched from a first microphone and a singing voice signal fetched from a second microphone are mixed or selected and a first output terminal is provided. Selecting means for outputting a characteristic value of a music element based on the singing voice signal output from the first output terminal; selecting means for outputting a characteristic amount of a music element based on the singing voice signal output from the first output terminal; First comparing means for comparing the extraction result of the means with a first reference value indicated by the song data to generate a first comparison result; and based on the singing voice signal output from the second output terminal. A second extraction unit for extracting a feature amount of a music element by using the second extraction unit for comparing the extraction result of the second extraction unit with a second reference value indicated by the song data to generate a second comparison result. Means of comparison and A first evaluation unit that evaluates the first comparison result and the second comparison result based on one evaluation criterion to determine the singing ability; and a first evaluation unit that compares the first comparison result with the second comparison result. A second evaluation unit that evaluates the result based on another evaluation criterion to determine the superiority of the singing ability, and one of the evaluation results of the first evaluation unit and the second evaluation unit is In the case where the evaluation result indicates the superiority or inferiority, and the other evaluation result indicates the superiority or inferiority, switching of the selection means is performed based on the evaluation result indicating the superiority or inferiority and the determination unit that determines the superiority of the singing power and the music data. A karaoke apparatus, comprising: control means for controlling in synchronization with the setting of the first and second reference values.
【請求項2】 乱数を発生する乱数発生部を備え、 前記判定部は、前記第1の評価部と前記第2の評価部の
評価結果がいずれも優劣無しを示す場合には、前記乱数
発生部で発生する乱数に基づいて、歌唱力の優劣を判定
することを特徴とする請求項1に記載のカラオケ装置。
2. The method according to claim 1, further comprising a random number generation unit configured to generate a random number, wherein the determination unit determines the random number when both of the evaluation results of the first evaluation unit and the second evaluation unit indicate that there is no priority. The karaoke apparatus according to claim 1, wherein the singing ability is determined based on a random number generated in the section.
【請求項3】 曲データに基づいて、楽曲の演奏を行う
とともに歌詞をモニタに表示させるカラオケ装置におい
て、 第1のマイクロホンから取り込まれる歌唱音声信号と第
2のマイクロホンから取り込まれる歌唱音声信号とを混
合または選択して第1の出力端子と第2の出力端子から
出力する選択手段と、 前記第1の出力端子から出力される前記歌唱音声信号に
基づいて歌唱音量を検出する第1の検出手段と前記第2
の出力端子から出力される前記歌唱音声信号に基づいて
歌唱音量を検出する第2の検出手段と前記第1の検出手
段によって検出された歌唱音量に応じて第1のキャラク
タの形状を可変して前記モニタに表示させるとともに、
前記第2の検出手段によって検出された歌唱音量に応じ
て第2のキャラクタの大きさを可変して前記モニタに表
示させる表示制御手段と、 前記曲データに基づいて、前記選択手段の切換と前記第
1,第2のキャラクタの設定とを同期して制御する制御
手段とを備えたことを特徴とするカラオケ装置。
3. A karaoke apparatus for playing a song and displaying lyrics on a monitor based on song data, wherein a singing voice signal captured from a first microphone and a singing voice signal captured from a second microphone are converted. Selecting means for mixing or selecting and outputting from a first output terminal and a second output terminal; and first detecting means for detecting a singing volume based on the singing voice signal output from the first output terminal. And the second
A second character detecting means for detecting a singing volume based on the singing voice signal output from the output terminal of the first character and a shape of the first character according to the singing volume detected by the first detecting means. While displaying on the monitor,
Display control means for changing the size of the second character in accordance with the singing volume detected by the second detection means and displaying the second character on the monitor; switching of the selection means based on the music data; A karaoke apparatus comprising: control means for controlling the settings of the first and second characters in synchronization with each other.
【請求項4】 前記制御手段は、前記曲データが二人の
歌い手によって歌唱される混成歌唱区間と一方の歌い手
によって歌唱される単独歌唱区間から構成されるもので
あることを検知すると、 前記混成歌唱区間において、混合した前記歌唱音声信号
を前記第1,第2の出力端子から出力するように前記選
択手段を制御するとともに、前記第1,第2の検出手段
によって検出された歌唱音量に対応して前記第1,第2
のキャラクタの形状を可変し、 前記単独歌唱区間において、前記第1のマイクロホンか
らの前記歌唱音声信号を第1の出力端子から出力すると
ともに第2のマイクロホンからの前記歌唱音声信号を前
記第2の出力端子から出力するように前記選択手段を制
御するとともに、前記一方の歌い手による前記歌唱音声
信号から検出された歌唱音量に応じて、対応するキャラ
クタの形状を可変するように制御することを特徴とする
請求項3に記載のカラオケ装置。
4. The control means, upon detecting that the music data is composed of a mixed singing section sung by two singers and a single singing section sung by one singer, In the singing section, the selecting means is controlled so as to output the mixed singing voice signal from the first and second output terminals, and the singing voice signal corresponds to the singing volume detected by the first and second detecting means. And the first and second
In the single singing section, the singing voice signal from the first microphone is output from a first output terminal, and the singing voice signal from a second microphone is output to the second singing section. Controlling the selection means so as to output from an output terminal, and controlling the shape of the corresponding character according to a singing volume detected from the singing voice signal by the one singer. The karaoke apparatus according to claim 3, wherein
【請求項5】 曲データに基づいて演奏を行うカラオケ
装置において、 第1のマイクロホンから取り込まれる歌唱音声信号と第
2のマイクロホンから取り込まれる歌唱音声信号とを混
合または選択して第1の出力端子と第2の出力端子から
出力する選択手段と、 前記第1の出力端子から出力される前記歌唱音声信号に
基づいて音楽要素の特徴量を抽出する第1の抽出手段
と、 前記第1の抽出手段の抽出結果と前記曲データが示す第
1の基準値を比較して第1の比較結果を生成する第1の
比較手段と、 前記第2の出力端子から出力される前記歌唱音声信号に
基づいて音楽要素の特徴量を抽出する第2の抽出手段
と、 前記第2の抽出手段の抽出結果と前記曲データが示す第
2の基準値を比較して第2の比較結果を生成する第2の
比較手段と、 乱数を発生する乱数発生部と、 前記第1の比較結果と前記第2の比較結果を所定の評価
基準に基づいて評価して歌唱力の優劣を定めるととも
に、その評価結果が優劣無しとなった場合には前記乱数
発生部の発生する乱数に基づいて優劣を決める評価部と
を備えることを特徴とするカラオケ装置。
5. A karaoke apparatus for performing a performance based on music data, wherein a singing voice signal fetched from a first microphone and a singing voice signal fetched from a second microphone are mixed or selected and a first output terminal is provided. Selecting means for outputting a characteristic value of a music element based on the singing voice signal output from the first output terminal; selecting means for outputting a characteristic amount of a music element based on the singing voice signal output from the first output terminal; First comparing means for comparing the extraction result of the means with a first reference value indicated by the song data to generate a first comparison result; and based on the singing voice signal output from the second output terminal. A second extraction unit for extracting a feature amount of a music element by using the second extraction unit for comparing the extraction result of the second extraction unit with a second reference value indicated by the song data to generate a second comparison result. Means of comparison and A random number generating unit for generating a number, the first comparison result and the second comparison result are evaluated based on a predetermined evaluation criterion, and the singing ability is determined, and the evaluation result is not superior A karaoke apparatus comprising: an evaluation unit that determines a priority based on a random number generated by the random number generation unit.
JP19426897A 1997-07-18 1997-07-18 Karaoke equipment Expired - Fee Related JP3562239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19426897A JP3562239B2 (en) 1997-07-18 1997-07-18 Karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19426897A JP3562239B2 (en) 1997-07-18 1997-07-18 Karaoke equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004122846A Division JP3982514B2 (en) 2004-04-19 2004-04-19 Karaoke equipment

Publications (2)

Publication Number Publication Date
JPH1138985A true JPH1138985A (en) 1999-02-12
JP3562239B2 JP3562239B2 (en) 2004-09-08

Family

ID=16321806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19426897A Expired - Fee Related JP3562239B2 (en) 1997-07-18 1997-07-18 Karaoke equipment

Country Status (1)

Country Link
JP (1) JP3562239B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148627A (en) * 2003-11-19 2005-06-09 Daiichikosho Co Ltd Karaoke device having feature in volume control of model vocal
JP2016142843A (en) * 2015-01-30 2016-08-08 株式会社第一興商 Karaoke system having pitch shift function for harmony singing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148627A (en) * 2003-11-19 2005-06-09 Daiichikosho Co Ltd Karaoke device having feature in volume control of model vocal
JP2016142843A (en) * 2015-01-30 2016-08-08 株式会社第一興商 Karaoke system having pitch shift function for harmony singing

Also Published As

Publication number Publication date
JP3562239B2 (en) 2004-09-08

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP3293745B2 (en) Karaoke equipment
US8802953B2 (en) Scoring of free-form vocals for video game
JP4204941B2 (en) Karaoke equipment
JP4175337B2 (en) Karaoke equipment
JP3982514B2 (en) Karaoke equipment
JPH11109980A (en) Karaoke sing-along machine
JP3562239B2 (en) Karaoke equipment
JP4123583B2 (en) Karaoke equipment
JP3901008B2 (en) Karaoke device with voice conversion function
JPH08286689A (en) Voice signal processing device
JP3659138B2 (en) Karaoke equipment
JP3562223B2 (en) Karaoke equipment
KR19990068392A (en) Karaoke system capable of dance training and gaming and method using the same
JP4068069B2 (en) Karaoke device that automatically controls back chorus volume
JP2007011090A (en) Karaoke device
JP4275762B2 (en) Voice instruction device and karaoke device
JP3962114B2 (en) Karaoke equipment
JP2005215493A (en) Karaoke machine and program
JP2006259401A (en) Karaoke machine
JP2000330580A (en) Karaoke apparatus
JPH08227296A (en) Sound signal processor
JP2005107332A (en) Karaoke machine
JPH1069216A (en) Karaoke sing-alone machine
JP3166621B2 (en) Karaoke processor and musical instrument practice processor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees