JP4452671B2 - Karaoke device with assist evaluation function - Google Patents

Karaoke device with assist evaluation function Download PDF

Info

Publication number
JP4452671B2
JP4452671B2 JP2005293860A JP2005293860A JP4452671B2 JP 4452671 B2 JP4452671 B2 JP 4452671B2 JP 2005293860 A JP2005293860 A JP 2005293860A JP 2005293860 A JP2005293860 A JP 2005293860A JP 4452671 B2 JP4452671 B2 JP 4452671B2
Authority
JP
Japan
Prior art keywords
singing
data
singer
scoring
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005293860A
Other languages
Japanese (ja)
Other versions
JP2007102019A (en
Inventor
裕泰 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2005293860A priority Critical patent/JP4452671B2/en
Publication of JP2007102019A publication Critical patent/JP2007102019A/en
Application granted granted Critical
Publication of JP4452671B2 publication Critical patent/JP4452671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To evaluate the assisting capability of a singer who assists when one of singers who sing a duet with a karaoke machine forgets a way of singing during singing, preferably, to accurately confirm a request for an assist and to enable the singers to accurately recognize the request for the assist and clearly know the timing of the assist. <P>SOLUTION: The karaoke machine calculates score values by scoring sections set in musical pieces of the respective singing parts based upon references previously set by karaoke microphones corresponding to singing parts of a duet song, and when any of calculated score values of a specified number of successive scoring sections of one singing part decreases below the previously set reference value, the karaoke machine evaluates score values of scoring sections where the other singer sings the one singing part and/or the time when the reference value increases from the point of time when the reference value decreases as a judgment element. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

本発明は、二重唱楽曲(以下、デュエット曲という)を、カラオケマイクを利用して歌唱するにあたり、一方の歌唱者が歌唱中に歌い方を失念してしまった際、他方の歌唱者による歌唱補助に対するアシスト能力を評価できるようにしたカラオケ装置に関する。   In the present invention, when singing a double song (hereinafter referred to as a duet song) using a karaoke microphone, when one singer forgets how to sing while singing, singing assistance by the other singer It is related with the karaoke apparatus which enabled it to evaluate the assist capability with respect to.

周知のようにカラオケ装置は、カラオケ楽曲の演奏音にカラオケマイクから入力した歌唱者の音声を合成して再生するようにしており、音程やテンポなどを歌唱者の歌唱力に対応させて予め設定することができ、また、歌唱力を評価して歌唱力採点するなどの機能が知られている。このようなカラオケ装置では、歌唱者が選定した楽曲が自動演奏され、歌唱者はこの楽曲の演奏音の流れに合わせて歌唱(以下、ボーカルという)を進行するようにしている。   As is well known, the karaoke apparatus is designed to synthesize and play the singer's voice input from the karaoke microphone with the performance sound of the karaoke music, and preset the pitch and tempo according to the singing ability of the singer. In addition, functions such as evaluating singing ability and scoring singing ability are known. In such a karaoke apparatus, the music selected by the singer is automatically played, and the singer advances the singing (hereinafter referred to as vocal) in accordance with the flow of the performance sound of the music.

このようなカラオケ装置において、歌唱中に歌唱者が歌い方を失念して歌唱者のボーカルが途絶えると演奏音のみが継続して再生されることになる。かかる不具合を解決するため、予めシステムの記憶手段にボーカル音を記憶しておき、ボーカルの音量と演奏音の音量を演算する手段を備え、歌唱者の歌唱力が低下してボーカルが途絶えたとき、前記記憶手段からボーカル音を読み出し、演奏音とともにボーカル音を再生するようにしたシステムが知られている(例えば、特許文献1)。   In such a karaoke apparatus, if the singer forgets how to sing during singing and the singer's vocal is interrupted, only the performance sound is continuously reproduced. In order to solve this problem, the vocal sound is stored in advance in the storage means of the system, and has means for calculating the volume of the vocal and the volume of the performance sound. A system is known in which a vocal sound is read from the storage means and a vocal sound is reproduced together with a performance sound (for example, Patent Document 1).

かかるシステムは、歌唱者の音声が途絶えたとき、自動的にボーカル付き演奏に切り替わり、一方、歌唱者が歌唱を再開して音声が生じると自動的にカラオケ演奏となるため、歌唱内容を完全にマスターしなくてもカラオケを楽しむことができるとするもので、スイッチの切り替えにより行われていたそれまでの困難で煩わしい操作を払拭するものとされている。
特開平04−298793号公報
Such a system automatically switches to a performance with vocals when the singer's voice is interrupted, while the singer automatically resumes singing and becomes karaoke when the voice is generated, so the singing content is completely It is supposed to be able to enjoy karaoke without mastering, and it is supposed to wipe out the difficult and troublesome operations that have been done so far by switching the switch.
JP 04-298793 A

上述したようなシステムでは、歌唱者の歌い方の失念に対して、装置技術によりアシストするものであり、歌唱者が単独で歌唱する曲目において有効となる。ところが、デュエット曲のように同一曲目を異なる歌唱者が歌唱区分(以下、歌唱パートという)毎に歌唱するような場合、普通に行われる行為として、一方の歌唱者が歌唱中に歌い方を失念してしまった際には、他方の歌唱者がアシストするのが自然であり、装置技術によるアシストは違和感を生じ好まれないのが実情である。   In the system as described above, the device technique assists the singer's forgetting how to sing, and is effective for the song that the singer sings alone. However, when different singers sing for each singing section (hereinafter referred to as singing part), such as duet songs, one of the singers forgets how to sing during singing as an ordinary practice. When this happens, it is natural for the other singer to assist, and it is a fact that the assist by the device technology is unpleasant and unpleasant.

また、デュエット曲においても歌唱力採点が可能となるが、装置技術によるアシストを介在させた場合、歌唱者の正確な歌唱力採点をすることができなくなり、全パートが双方の歌唱者により歌唱され、歌唱力採点されることが望ましいことになる。そして、デュエット曲では、必ずしも双方の歌唱者の歌唱力が揃って優れていることはなく、一方の歌唱者を他方がアシストしつつ楽曲が進行する場合もある。その際、他方の歌唱者のアシストが優れている場合でも、アシストを受けた歌唱者の採点結果は向上するものの、従来では、アシストを行った歌唱者の評価をする仕組みがなかった。即ち、アシスト能力は無視される状態となっていた。   In addition, singing ability scoring is possible even in duet songs, but if the assistance by the device technology is interposed, the singer's accurate singing ability cannot be scored and all parts are sung by both singers. It would be desirable to score the singing ability. In a duet song, the singing powers of both singers are not necessarily excellent, and the music may advance while the other singer assists the other. At that time, even if the other singer's assist is excellent, although the scoring result of the singer who received the assist is improved, there has conventionally been no mechanism for evaluating the singer who performed the assist. That is, the assist ability is ignored.

本発明は、かかる従来の問題に鑑みなされたものであり、カラオケ装置によりデュエット曲を歌唱するにあたり、一方の歌唱者が歌唱中に歌い方を失念してしまった際、アシストを行った歌唱者のアシスト能力を評価できるようにし、好ましくは、アシストの要求を正確に認識でき、歌唱者同士でアシストのタイミングが明確になるカラオケ装置の提供を目的とするものである。   The present invention has been made in view of such conventional problems, and when singing a duet song with a karaoke device, when one singer forgets how to sing during singing, the singer who assists It is desirable to provide a karaoke apparatus that can recognize the request for assistance accurately and that makes the timing of assistance clear among singers.

そこで、本発明は、一方の歌唱者が歌い方を失念したことを、予め設定した歌唱力採点の基準値に基づき判断し、これに対し、他方の歌唱者が一方の歌唱者の代わりに、その歌唱パートを正確に歌唱したか否かを、各歌唱パートのそれぞれのカラオケマイクに設定されたリファレンスを置換して、その他方の歌唱者の採点結果から求め、さらに、この歌唱補助によって、一方の歌唱者が歌唱に復帰したことを、先の歌唱力採点に基づき判断し、その復帰時間を含めて総合的に評価することで、他方の歌唱者のアシスト能力を判断するような仕組みを構築することで、上記目的を達成することを見出し、本発明のカラオケ装置を想到した。   Therefore, the present invention determines that one singer has forgotten how to sing based on a preset standard value of the singing ability scoring, whereas the other singer is instead of one singer, Whether or not the singing part was accurately sung is replaced by the reference set for each karaoke microphone of each singing part and obtained from the scoring result of the other singer. Establishing a mechanism to judge the assistance ability of the other singer by judging that the singer has returned to singing based on the previous singing ability scoring and comprehensively including the return time Thus, the inventors have found that the above object can be achieved, and have come up with the karaoke apparatus of the present invention.

即ち、本発明の請求項1記載のカラオケ装置では、
歌唱者毎に歌唱パートを分担して歌唱するための二重唱楽曲を保有し、各二重唱楽曲にはそれぞれ複数の採点区間が設定されていると共に、歌唱力採点手段と、リファレンス置換手段と、アシスト評価手段とを有してなり、
(ア)歌唱力採点手段は、二重唱楽曲における各歌唱パートに対応したカラオケマイク毎に予め設定されたリファレンスに基づき、それぞれの歌唱パートの採点区間毎に採点値を算出し、
(イ)リファレンス置換手段は、一方の歌唱パートにおける連続した所定数の採点間にて、その算出された採点値が何れも予め設定された基準値を下回った場合、他方の歌唱パートのカラオケマイクに設定されたリファレンスを、前記一方の歌唱パートのカラオケマイクに設定されたリファレンスに置換し、かつ、前記一方の歌唱者の歌唱パートに対応する連続した所定数の採点区間にて、その算出された採点値が何れも前記基準値を上回った場合、あるいは、楽曲演奏が他方の歌唱者の歌唱パートを含む歌唱部分に切り替わった場合、前記置換されたカラオケマイクのリファレンスを前記設定されたリファレンスに戻し、
(ウ)アシスト評価手段は、前記リファレンスの置換中において、前記他方の歌唱者による前記一方の歌唱パートを歌唱した採点区間の採点値および/または前記基準値が下回った時点から前記基準値が上回った時点までの時間と、を判断要素として評価する。
That is, in the karaoke apparatus according to claim 1 of the present invention,
Each singer has a double-song for sharing the singing part, and each double-song has a plurality of scoring sections. Singing ability scoring means, reference replacement means, and assist evaluation Means,
(A) Singing power scoring means calculates a scoring value for each scoring section of each singing part based on a preset reference for each karaoke microphone corresponding to each singing part in the double-song music,
(B) The reference replacement means is a karaoke microphone of the other singing part when the calculated scoring value falls below a preset reference value between a predetermined number of consecutive grading points in one singing part. Is replaced with the reference set in the karaoke microphone of the one singing part, and is calculated in a predetermined number of consecutive scoring intervals corresponding to the singing part of the one singer. When the scoring value exceeds the reference value, or when the music performance is switched to the singing part including the singing part of the other singer, the reference of the replaced karaoke microphone is set as the set reference. Return,
(C) During the replacement of the reference, the assist evaluation means is configured such that the reference value exceeds the reference value from the time when the score value and / or the reference value of the scoring section where the other singer sang the one singing part falls. The time to the point in time is evaluated as a judgment factor.

また、本発明の請求項2記載のカラオケ装置では、
(エ)アシスト評価手段は、前記リファレンスの置換中において、前記他方の歌唱者による前記一方の歌唱パートにおける各採点区間の歌唱に対する平均採点値と、前記基準値が下回った時点から前記基準値が上回った時点までの時間に加え、さらに、前記基準値が下回った時点から前記他方の歌唱者による前記一方の歌唱パートの歌唱開始時点までの時間と、を判断要素として評価するようにした。
In the karaoke apparatus according to claim 2 of the present invention,
(D) During the replacement of the reference, the assist evaluation means determines that the reference value is determined from the average score value for the singing of each scoring section in the one singing part by the other singer, and from the time when the reference value falls below. In addition to the time until the time when it exceeded, the time from the time when the reference value fell to the time when the other singer started singing the one singing part was evaluated as a determination factor.

さらに、本発明の請求項3記載のカラオケ装置では、前記歌唱力採点手段と、リファレンス置換手段と、アシスト評価手段に加え、さらに、アシスト通知手段とを有してなり、
(オ)アシスト通知手段は、前記基準値が下回った時点にて、画面表示および/または音声出力をもって、歌唱者に対してアシスト要求の通知をさせるようにした。
Furthermore, in the karaoke apparatus according to claim 3 of the present invention, in addition to the singing ability scoring means, the reference replacement means, and the assist evaluation means, it further comprises an assist notification means,
(E) The assist notification means notifies the singer of an assist request with a screen display and / or audio output when the reference value falls below.

本発明の請求項1記載のカラオケ装置によれば、一方の歌唱者の歌唱パートにおいて、歌い方を失念(採点値が予め設定された基準値を下回った状態)した際、他方の歌唱者が成した歌唱補助の正確さの程度や、その歌唱補助による一方の歌唱者の歌唱への復帰時間の長さを評価の判断要素とすることで、好適かつ客観性をもってアシストを行った歌唱者のアシスト能力を評価できるといった効果を奏する。   According to the karaoke apparatus according to claim 1 of the present invention, when the singing part of one singer has forgotten how to sing (state where the scoring value is lower than a preset reference value), the other singer By using the degree of accuracy of the singing assistance made and the length of the return time to the singing of one singer by the singing assistance as an evaluation judgment factor, There is an effect that the assist ability can be evaluated.

また、請求項2記載のカラオケ装置によれば、さらに、一方の歌唱者が歌い方を失念してから他方の歌唱者が歌唱補助を始めるまでの時間を判断要素に組み入れることにより、アシストするリスポンスの速さもアシスト評価の対象とされ、さらに詳細に歌唱者のアシスト能力を評価できるといった効果を奏する。   Moreover, according to the karaoke apparatus of claim 2, the response to assist by incorporating the time from when one singer forgets how to sing until the other singer starts singing assistance into the judgment element. This speed is also subject to assist evaluation, and the singer's assist ability can be evaluated in more detail.

さらに、請求項3記載のカラオケ装置によれば、デュエット曲を歌唱するにあたり、一方の歌唱者の歌唱パートにおいて、歌い方を失念した際、モニター画面表示または音声により他方の歌唱者がアシストの要求を正確に認識でき、歌唱者同士のアシストのタイミングが明確になるといった効果を奏する。   Furthermore, according to the karaoke apparatus of claim 3, when singing a duet song, when the singing part of one singer has forgotten how to sing, the other singer requests the assistance by the monitor screen display or voice. Can be recognized accurately, and there is an effect that the timing of assistance between singers becomes clear.

そして、請求項1乃至請求項3記載のカラオケ装置によれば、デュエット曲における歌唱力採点を正確に実行でき、カラオケ装置のアミューズメント性を向上するとともに、歌唱者の歌唱力向上に資するカラオケ装置とすることができる。   And according to the karaoke apparatus of Claim 1 thru | or 3, the karaoke apparatus which can perform singing ability scoring in a duet music correctly, improves the amusement property of a karaoke apparatus, and contributes to a singer's singing ability improvement, can do.

以下、本発明の実施の形態を図面を参照して詳細に説明する。図1は、本発明の全体の構成の概略を示すもので、本発明の理解を容易とするため、まず、同図の各部の構成を具体的に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an outline of the overall configuration of the present invention. To facilitate understanding of the present invention, the configuration of each part in FIG.

図1における符号50はカラオケ装置の各部を制御する中央演算処理装置(以下、CPUという)であり、このCPU50には、システムバスBUSを介してROM51、RAM52、通信制御部53、ハードディスク装置(以下、HDDという)54、リモコン受信部55、音源装置56、文字表示部57、表示制御部58、音声データ処理分60、歌唱力採点部68、アシスト要否判定部69が接続されている。   Reference numeral 50 in FIG. 1 denotes a central processing unit (hereinafter referred to as a CPU) that controls each unit of the karaoke apparatus. The CPU 50 includes a ROM 51, a RAM 52, a communication control unit 53, and a hard disk device (hereinafter referred to as a CPU) via a system bus BUS. , HDD) 54, remote control receiving unit 55, sound source device 56, character display unit 57, display control unit 58, voice data processing part 60, singing ability scoring unit 68, and assist necessity determination unit 69.

前記ROM51には、本発明のカラオケ装置の電源投入時に初期設定を行う起動プログラムが記憶されており、装置の電源が投入されると、この起動プログラムによりHDD54に記憶されているシステムプログラムおよびアプリケーションプログラムがRAM52にロードされる。また、前記HDD54には、前記システムプログラムおよびアプリケーションプログラムのほか、カラオケ演奏時に再生される楽曲データファイルが記憶されている。   The ROM 51 stores a startup program for performing initial settings when the karaoke apparatus of the present invention is turned on. When the apparatus is turned on, the startup program stores the system program and application program stored in the HDD 54. Is loaded into the RAM 52. In addition to the system program and application program, the HDD 54 stores a music data file to be reproduced during karaoke performance.

ここで、図2乃至図4を参照して楽曲データの内容について説明する。図2は、HDD54に数万曲記憶されている楽曲データの1曲分の楽曲データのフォーマットを示し、図3、図4に楽曲データの各トラックの内容を示す。図2の楽曲データの内容は、ヘッダ、楽音トラック、ガイドメロディトラック、歌詞トラック、音声トラック、効果トラック、音声データ部により構成されている。ヘッダには、楽曲データに関する種々の情報が書き込まれており、例えば、曲番号、曲名、ジャンル、発売日、演奏時間などのデータが書き込まれている。   Here, the contents of the music data will be described with reference to FIGS. FIG. 2 shows the format of music data for one music piece of music data stored in the HDD 54, and FIG. 3 and FIG. 4 show the contents of each track of the music data. The content of the music data in FIG. 2 includes a header, a musical sound track, a guide melody track, a lyrics track, an audio track, an effect track, and an audio data portion. Various information related to the music data is written in the header. For example, data such as a music number, a music title, a genre, a release date, and a performance time are written.

楽音トラックから効果トラックの各トラックは、図3および図4に示すように、複数のイベントデータと各イベント間の時間間隔を示すデュレーションデータΔtからなるシーケンスデータで構成されている。CPU50は、カラオケ演奏時にシーケンスプログラムに基づき全トラックのデータを平行して読み出す。シーケンスプログラムは、所定のテンポクロックでデュレーションデータΔtをカウントし、カウントを終了したときにこれに続くイベントデータを読み出し、所定の処理部へ出力する。   As shown in FIGS. 3 and 4, each track from the musical sound track to the effect track is composed of a plurality of event data and sequence data including duration data Δt indicating a time interval between the events. The CPU 50 reads the data of all tracks in parallel based on the sequence program during the karaoke performance. The sequence program counts the duration data Δt at a predetermined tempo clock, reads the event data that follows the count data, and outputs it to a predetermined processing unit.

図3に示す楽音トラックには、メロディトラック、リズムトラックをはじめとして種々のパートのトラックが形成されている。図4に示すガイドメロディトラックには、このカラオケ曲の旋律、即ち、歌唱者が歌うべき旋律のシーケンスデータが書き込まれている。CPU50は、このデータに基づいてリファレンスの音高データ、音量データを生成し、歌唱音声と比較する。なお、デュエット曲のように複数の歌唱パートがある場合は、各歌唱パートに対応してガイドメロディトラック(リファレンス)が存在するか、あるいは、同じトラック内でも、それぞれの歌唱パートが区分されており、これらに基づき、それぞれの歌唱パートの歌唱力採点が行われる。   The musical tone track shown in FIG. 3 is formed with various part tracks including a melody track and a rhythm track. In the guide melody track shown in FIG. 4, the melody sequence data of the karaoke song, that is, the melody sequence data to be sung by the singer is written. The CPU 50 generates reference pitch data and volume data based on this data and compares it with the singing voice. In addition, when there are multiple singing parts like a duet song, there is a guide melody track (reference) corresponding to each singing part, or each singing part is divided within the same track. Based on these, singing ability scoring of each singing part is performed.

また、歌詞トラックは、モニター装置59の画面に歌詞を表示するためのシーケンスデータを記憶したトラックである。このシーケンスデータは、楽音データではないが、インプリメンテーションの統一をとって作業工程を容易にするため、このトラックはMIDIデータで記述され、データの種類は、システムエクスクルーシブメッセージである。   The lyrics track is a track that stores sequence data for displaying lyrics on the screen of the monitor device 59. Although this sequence data is not musical sound data, this track is described as MIDI data and the type of data is a system exclusive message in order to facilitate the work process by unifying implementation.

この歌詞トラックは、通常、モニター装置59の画面上に表示される1行分の歌詞を1つの歌詞表示データとして扱う。歌詞表示データは、1行の歌詞の文字データ(文字コードおよびその文字の表示座標)、表示時間、およびワイプシーケンスデータからなる。このワイプシーケンスデータは、曲の進行に合わせて歌詞の表示色を変更してゆくためのシーケンスデータであり、表示色を変更するタイミング(歌詞が表示されてからの時間)と変更位置(座標)が1行分の長さにわたって順次記録されているデータである。   This lyrics track normally handles one line of lyrics displayed on the screen of the monitor device 59 as one lyrics display data. The lyric display data is composed of lyric character data (character code and display coordinates of the character) of one line, display time, and wipe sequence data. This wipe sequence data is sequence data for changing the display color of the lyrics as the song progresses. The timing for changing the display color (time after the lyrics are displayed) and the change position (coordinates) Is data recorded sequentially over the length of one line.

音声トラックは、音声データ部に記憶されている音声データn(n=1,2,3,・・・・)の発生タイミングなどを指定するシーケンストラックである。音声トラックには、音声指定データと、音声指定データの読出間隔、即ち、音声データを音声データ処理部60に出力して音声信号を形成するタイミングを指定するデュレーションデータΔtが書き込まれている。音声指定データは、音声データ番号、音程データおよび音量データからなり、前記音声データ番号は、音声データ部に記録されている各音声データの識別番号nである。   The audio track is a sequence track that specifies the generation timing of audio data n (n = 1, 2, 3,...) Stored in the audio data portion. In the audio track, audio designation data and duration data Δt for designating the read interval of the audio designation data, that is, the timing at which the audio data is output to the audio data processing unit 60 to form the audio signal are written. The voice designation data includes a voice data number, pitch data, and volume data, and the voice data number is an identification number n of each voice data recorded in the voice data section.

音程データ、音量データは、形成すべき音声データの音程や音量を指示するデータである。即ち、言葉を伴わないバックコーラスは、音程や音量を変化させることにより汎用的に利用できるため、基本的な音程、音量で1つ記憶しておき、このデータに基づいて音程や音量をシフトして繰り返し使用する。音声データ処理部60は、音量データに基づいて出力レベルを設定し、音程データに基づいて音声データの読出間隔をを変えることによって音声信号の音程を設定する。   The pitch data and the volume data are data for instructing the pitch and volume of the audio data to be formed. In other words, the back chorus without words can be used universally by changing the pitch and volume, so one basic pitch and volume are stored, and the pitch and volume are shifted based on this data. Use repeatedly. The audio data processing unit 60 sets the output level based on the volume data, and sets the pitch of the audio signal by changing the read interval of the audio data based on the pitch data.

ここで、RAM52のメモリマップの内容を図5を参照して説明する。同図に示すように、ガイドメロディを一時記憶するMIDIバッファ520のほか、このガイドメロディから抽出されたリファレンスデータを記憶するリファレンスデータレジスタ321、およびリファレンスと歌唱音声を比較することによって求められた差分データを蓄積記憶する差分データ記憶エリア522、この差分データを歌唱技巧データと比較することによって求められたポイントを記憶するポイント記憶エリア523、カラオケ演奏のための楽曲データを記憶する実行データ記憶エリア524、ロードしたシステムプログラムやアプリケーションプログラムを記憶するプログラム記憶エリア525が設定されている。なお、前記リファレンスデータレジスタ321は、音高データレジスタ521aおよび音量データレジスタ521bからなり、差分データ記憶エリア522は、音高差分データ記憶エリア522a、音量差分データ記憶エリア522bおよびリズム差分データ記憶エリア522cからなる。   Here, the contents of the memory map of the RAM 52 will be described with reference to FIG. As shown in the figure, in addition to a MIDI buffer 520 for temporarily storing a guide melody, a reference data register 321 for storing reference data extracted from the guide melody, and a difference obtained by comparing the reference and the singing voice A difference data storage area 522 for storing and storing data, a point storage area 523 for storing points obtained by comparing the difference data with singing skill data, and an execution data storage area 524 for storing music data for karaoke performance A program storage area 525 for storing the loaded system program and application program is set. The reference data register 321 includes a pitch data register 521a and a volume data register 521b. The difference data storage area 522 includes a pitch difference data storage area 522a, a volume difference data storage area 522b, and a rhythm difference data storage area 522c. Consists of.

つぎに、通信制御部53は、情報通信ネットワークを介してホストステーションから楽曲データなどをダウンロードし、内蔵しているDMAコントローラにより受信した楽曲データをCPUを介さずに直接HDD54に書き込む。リモコン受信部55は、リモコン送信機61から送られてくる赤外線コード信号を受信して入力データを復元する。リモコン送信機61は、選曲スイッチなどのコマンドスイッチやテンキースイッチなどを備えており、利用者がこれらのスイッチを操作すると、その操作に応じたコードで変調された赤外線コード信号を送信する。   Next, the communication control unit 53 downloads music data and the like from the host station via the information communication network, and writes the music data received by the built-in DMA controller directly to the HDD 54 without using the CPU. The remote control receiver 55 receives the infrared code signal sent from the remote control transmitter 61 and restores the input data. The remote control transmitter 61 includes a command switch such as a music selection switch, a numeric keypad switch, and the like. When a user operates these switches, the remote control transmitter 61 transmits an infrared code signal modulated with a code corresponding to the operation.

音源装置56は、楽曲データの楽音トラックデータに基づいて楽音信号を形成する。楽曲データは、カラオケ演奏時にCPU50によって読み出され、楽音トラックとともに比較用データであるガイドメロディトラックも並行して読み出される。楽音トラックは、図3に示すように複数トラックで構成されており、音源装置56はこのデータに基づいて複数パートの楽音信号を同時に形成する。   The tone generator 56 forms a tone signal based on the tone track data of the music data. The music data is read by the CPU 50 during karaoke performance, and a guide melody track, which is comparison data, is read in parallel with the musical sound track. As shown in FIG. 3, the tone track is composed of a plurality of tracks, and the tone generator 56 forms a plurality of part tone signals simultaneously based on this data.

音声データ処理部60は、楽曲データに含まれる音声データに基づき、指定された長さ、指定された音高の音声信号を形成する。この音声データ処理部60および前記音源装置56の各々が形成した音声信号がカラオケ演奏音となる。そして、このカラオケ演奏音は、D/A変換器62によりアナログ信号に変換された後、音響装置63へ出力され、スピーカシステム64から発音される。   The audio data processing unit 60 forms an audio signal having a specified length and a specified pitch based on the audio data included in the music data. Voice signals formed by the voice data processing unit 60 and the sound source device 56 become karaoke performance sounds. The karaoke performance sound is converted into an analog signal by the D / A converter 62, and then output to the sound device 63 and produced by the speaker system 64.

歌唱用のカラオケマイク65a・65bから入力した歌唱音声信号は、プリアンプ66a・66bで増幅された後、前記音響装置63およびA/D変換器67a・67bへ入力する。音響装置63へ入力した歌唱音声信号は、増幅されてスピーカシステム64から発音され、A/D変換器67a・67bは、入力した歌唱音声信号をデジタル化して出力する。   Singing voice signals input from the singing karaoke microphones 65a and 65b are amplified by the preamplifiers 66a and 66b, and then input to the acoustic device 63 and the A / D converters 67a and 67b. The singing voice signal input to the audio device 63 is amplified and sounded from the speaker system 64, and the A / D converters 67a and 67b digitize and input the input singing voice signal.

文字表示部57は、入力される文字コードに基づいてフォントデータを読み出し、曲名や歌詞などの文字パターンを生成して表示制御部58へ出力する。また、HDD54は、入力された映像選択データ(チャプタナンバ)に基づき、対応する背景映像を再生し、表示制御部58へ出力する。映像選択データは、選択されたカラオケ曲のジャンルデータに基づいて決定されるもので、このジャンルデータは、楽曲データのヘッダに書き込まれており、カラオケ演奏の開始時にCPU50により読み出される。   The character display unit 57 reads out font data based on the input character code, generates a character pattern such as a song title and lyrics, and outputs the character pattern to the display control unit 58. Further, the HDD 54 reproduces the corresponding background video based on the input video selection data (chapter number) and outputs it to the display control unit 58. The video selection data is determined based on the genre data of the selected karaoke song. This genre data is written in the header of the song data and is read out by the CPU 50 at the start of the karaoke performance.

CPU50は、ジャンルデータに基づいて再生する背景映像を選択し、その背景映像を指定する映像選択データによりHDD54から背景映像が選択され、映像データとして出力される。この映像データと文字表示部57から出力される歌詞などのフォントデータは、表示制御部58においてスーパーインポーズされ、その合成画像がモニター装置59の画面に表示される。   The CPU 50 selects a background video to be reproduced based on the genre data, selects a background video from the HDD 54 by video selection data for designating the background video, and outputs it as video data. The video data and font data such as lyrics output from the character display unit 57 are superimposed on the display control unit 58, and the composite image is displayed on the screen of the monitor device 59.

つぎに、歌唱力採点部68は、歌唱者の歌唱力を評価するもので、CPU50などのハードウエアと採点用のソフトウェアによって構成される。図6は、この歌唱力採点部68の構成を具体的に示すもので、A/D変換器67a・67bからデジタル信号に変換されて出力した歌唱音声信号は、データ抽出部680a・680bへ入力する。データ抽出部680a・680bは、デジタル化された歌唱音声信号から50ms毎に音高データと音量データを抽出して差分演算部681a・681bへ出力する。   Next, the singing ability scoring unit 68 evaluates the singing ability of the singer, and includes hardware such as a CPU 50 and scoring software. FIG. 6 specifically shows the configuration of the singing ability scoring unit 68. The singing voice signal converted into a digital signal from the A / D converters 67a and 67b is output to the data extracting units 680a and 680b. To do. The data extraction units 680a and 680b extract pitch data and volume data every 50 ms from the digitized singing voice signal, and output them to the difference calculation units 681a and 681b.

差分演算部681a・681bは、各歌唱音声信号から抽出された音高データ、音量データ(以下、歌唱音声データという)と、リファレンス置換部683から出力されたガイドメロディの音高データ、音量データ(以下、リファレンスデータという)とを入力し、歌唱音声データが入力されるタイミングに合わせて50ms毎にリファレンスデータとの差が算出され、リアルタイムの差分データ(音高差分データ、音量差分データ)として出力される。また、差分演算部681a・681bは、歌唱音声データの音量の立ち上がりタイミングと、リファレンスデータの音量の立ち上がりタイミングのずれを検出し、これをリズム差分データとして出力する。   The difference calculation sections 681a and 681b are pitch data and volume data (hereinafter referred to as singing voice data) extracted from each singing voice signal, and the pitch data and volume data of the guide melody output from the reference substitution section 683. (Hereinafter referred to as “reference data”), the difference from the reference data is calculated every 50 ms in accordance with the timing at which the singing voice data is input, and output as real-time difference data (pitch difference data, volume difference data). Is done. Further, the difference calculation units 681a and 681b detect a difference between the rising timing of the volume of the singing voice data and the rising timing of the volume of the reference data, and output this as rhythm difference data.

検出された音高差分データ、音量差分データ、リズム差分データは採点部682a・682bへ入力する。採点部682a・682bは、これらの差分データを、本発明に関わる二重唱楽曲を含む各楽曲にそれぞれ設定されている採点区間単位毎に集計して記憶するとともに、これらの差分データを入力した歌唱技巧データと比較する。この歌唱技巧データは、音源装置56の動作に微妙な変化を与えて単調とならないようにするとともに音楽的な表現を付与するためのデータであるため、リファレンスデータと歌唱音声データとのずれを示すデータである差分データがこの歌唱技巧データに近似していれば、その曲に合った歌唱がなされていると判断し、その類似度を加算ポイントとして定量化する。この加算ポイント、音高、音量、リズムの各音楽要素毎に求められ、前記採点区間毎に集計され記憶される。   The detected pitch difference data, volume difference data, and rhythm difference data are input to the scoring units 682a and 682b. The scoring units 682a and 682b collect and store these difference data for each of the scoring section units set for each piece of music including the duo music related to the present invention, and the singing technique to which these difference data is input. Compare with the data. Since this singing skill data is data for giving a subtle change to the operation of the sound source device 56 so as not to become monotonous and giving musical expression, it shows a deviation between the reference data and the singing voice data. If the difference data, which is data, approximates this singing skill data, it is determined that a singing suitable for the song is made, and the similarity is quantified as an addition point. It is obtained for each music element of the addition point, pitch, volume, and rhythm, and is totaled and stored for each scoring section.

つぎに、かかる処理の概要を図7〜図11に示すフローチャートを参照して説明する。図7は、データの取込処理を示すフローチャートであり、デュエット曲の歌唱の場合は、2つのカラオケマイク65a・65bからそれぞれの歌唱音声信号が入力すると(ステップSa1)、各歌唱音声信号はA/D変換器67a・67bによりデジタルデータに変換される(ステップSa2)。各々のデジタルデータは、それぞれデータ抽出部680a・680bに入力し、50msのフレーム単位で周波数のカウント(ステップSa3)および平均音量の算出(ステップSa4)が行われる。この周波数カウント値および平均音量値は、50ms毎にCPU50により読み取られる   Next, an outline of such processing will be described with reference to the flowcharts shown in FIGS. FIG. 7 is a flowchart showing the data fetching process. In the case of a duet song, when each singing voice signal is input from two karaoke microphones 65a and 65b (step Sa1), each singing voice signal is A. The digital data is converted by the / D converters 67a and 67b (step Sa2). Each digital data is input to the data extraction units 680a and 680b, and the frequency is counted (step Sa3) and the average sound volume is calculated (step Sa4) in units of 50 ms frames. The frequency count value and the average volume value are read by the CPU 50 every 50 ms.

図8は、楽曲データの入力処理を示すフローチャートである。この処理は、カラオケ演奏を実行するシーケンスプログラムからガイドメロディトラックのイベントデータおよび制御トラックのイベントデータが受け渡されたとき実行される。まず、シーケンスプログラムから渡されたMIDIデータをMIDIバッファ520に取り込み(ステップSb1)、このデータが区間分割データであるか否かを判断する(ステップSb2)。前記ステップにより区間分割データと判断された場合、この内容を区間レジスタに記憶し(ステップSb3)、リターンする。一方、取り込んだデータがリファレンスデータであれば、このデータを音高データおよび音量データに変換する(ステップSb4)。   FIG. 8 is a flowchart showing the music data input process. This process is executed when the event data of the guide melody track and the event data of the control track are transferred from the sequence program for executing the karaoke performance. First, the MIDI data passed from the sequence program is taken into the MIDI buffer 520 (step Sb1), and it is determined whether or not this data is section division data (step Sb2). If it is determined in the step that the data is divided into sections, the contents are stored in the section register (step Sb3), and the process returns. On the other hand, if the fetched data is reference data, this data is converted into pitch data and volume data (step Sb4).

これは、MIDIフォーマットのノートオンデータのノートナンバやピッチベンドデータを音高データに変換し、ノートオンデータのベロシティデータやアフタタッチ(キープレッシャ)データを音量データに変換する処理である。このようにして変換された音高データ、音量データでRAM52のリファレンスデータレジスタ521を更新する(ステップSb5)。したがって、リファレンスデータレジスタ521は、新たなガイドメロディデータが入力される毎に更新される。   This is processing for converting note number and pitch bend data of note-on data in MIDI format into pitch data, and converting velocity data and after-touch (key pressure) data of note-on data into volume data. The reference data register 521 of the RAM 52 is updated with the pitch data and volume data thus converted (step Sb5). Therefore, the reference data register 521 is updated each time new guide melody data is input.

なお、リファレンスデータがMIDIデータではなく音高データ、音量データとして記憶されている場合には、この変換処理を行わずにそのままリファレンスデータレジスタ521に記憶すればよい。また、音高データ、音量データの記述フォーマットをMIDIフォーマットにすることも可能であり、この場合、これらをシステムエクスクルーシブメッセージ(例えば、ノートオンデータ、ピッチベンドデータ、チャンネルキープレッシャデータなど)で代用してもよい。   If the reference data is stored as pitch data and volume data instead of MIDI data, it may be stored in the reference data register 521 without performing this conversion process. It is also possible to change the description format of pitch data and volume data to the MIDI format. In this case, these can be replaced by system exclusive messages (for example, note-on data, pitch bend data, channel key pressure data, etc.). Also good.

図9は、データ変換処理を示すフローチャートである。この処理は歌唱音声信号の周波数カウント値および平均音量値を取り込んで歌唱音声の音高データ、周波数データに変換する処理であり、歌唱音声信号の1フレーム時間である50ms毎に実行される。まず、CPU50は平均音量値を読み取り(ステップSc1)、その値が閾値(SH)以上であるか否かを判断する(ステップSc2)。このとき、閾値以上であればこの平均音量値に基づいて音量データを生成する(ステップSc3)。つぎに、周波数カウント値を読み取り(ステップSc4)、この周波数カウント値に基づいて音高データを生成し(ステップSc5)、比較処理へ進む。なお、ステップSc2において平均音量値が閾値未満であると判断された場合には、歌唱者が歌唱(発声)していないとして音量0データを生成し(ステップSc6)、音高データを生成せずに比較処理へ進む。以上によるデータ変換処理は、カラオケマイク65a・65bから入力される各歌唱音声についてそれぞれ行われる。   FIG. 9 is a flowchart showing data conversion processing. This process is a process of taking in the frequency count value and the average volume value of the singing voice signal and converting them into pitch data and frequency data of the singing voice signal, and is executed every 50 ms which is one frame time of the singing voice signal. First, the CPU 50 reads the average sound volume value (step Sc1) and determines whether or not the value is equal to or greater than a threshold value (SH) (step Sc2). At this time, if it is equal to or greater than the threshold value, volume data is generated based on the average volume value (step Sc3). Next, the frequency count value is read (step Sc4), pitch data is generated based on the frequency count value (step Sc5), and the process proceeds to the comparison process. If it is determined in step Sc2 that the average volume value is less than the threshold value, volume 0 data is generated assuming that the singer is not singing (speaking) (step Sc6), and pitch data is not generated. Proceed to the comparison process. The data conversion process as described above is performed for each singing voice input from the karaoke microphones 65a and 65b.

つぎに、比較処理について図10に示すフローチャートに基づいて説明する。この比較処理は図8のデータ変換処理で生成された歌唱音声の音高データ、音量データと、図7のリファレンス入力処理で求められたリファレンスの音高データ、音量データを比較して差分データを求める処理であり、データ変換処理に同期して50ms毎に実行される。この比較処理では、まず、リファレンスの音量データおよび歌唱音声の音量データの双方が閾値以上(発音中)であるかを判断する(ステップSd1)。ここで、双方が発音中でなければ比較処理は無意味となるため、ステップSd16以下の処理へ進み、一方、双方が発音中の場合には、発音フラグがセットされているかを判断する(ステップSd2)。   Next, the comparison process will be described based on the flowchart shown in FIG. This comparison process compares the pitch data and volume data of the singing voice generated by the data conversion process of FIG. 8 with the reference pitch data and volume data obtained by the reference input process of FIG. This is a required process, and is executed every 50 ms in synchronization with the data conversion process. In this comparison process, first, it is determined whether both the reference volume data and the singing voice volume data are equal to or higher than a threshold (sounding) (step Sd1). Here, since the comparison process becomes meaningless unless both are sounding, the process proceeds to the process after step Sd16. On the other hand, if both are sounding, it is determined whether or not the sounding flag is set (step). Sd2).

前記発音フラグとは、リファレンスと歌唱音声の双方が立ち上がったとき(発音中となったとき)、ステップSd3でセットされるフラグである。したがって、立ち上がった当初は発音フラグはまだセットされたままであるため、、ステップSd2からステップSd3へ進み、ステップSd3において発音フラグがセットされる。そして、リファレンスと歌唱音声の立ち上がりタイミングの差を算出し(ステップSd4)、これをリズム差分データとしてリズム差分データ記憶エリア522c内の現在の区間に対応する記憶エリアに記憶する(ステップSd5)。なお、現在の区間は、図8に示すステップSb3でセットされる区間レジスタにより判断することができる。   The sound generation flag is a flag that is set in step Sd3 when both the reference and the singing voice rise (when sound is being generated). Accordingly, since the sound generation flag is still set at the beginning of the rise, the process proceeds from step Sd2 to step Sd3, and the sound generation flag is set in step Sd3. Then, the difference between the rising timings of the reference and the singing voice is calculated (step Sd4), and this is stored as rhythm difference data in the storage area corresponding to the current section in the rhythm difference data storage area 522c (step Sd5). Note that the current section can be determined by the section register set in step Sb3 shown in FIG.

つぎに、前記リズム差分データを歌唱技巧データと比較し(ステップSd6)、この一致の程度を加算ポイントとしてポイント記憶エリア523内の現在の区間に対応する記憶エリアに蓄積記憶する(ステップSd7)。ここで、このタイミングの差を表す歌唱技巧データとして楽音トラックのノートオンイベントデータを用いることができる。即ち、ノートオンイベントデータの正確なビートタイミングの差が楽曲を巧く演奏するための技巧を表しているとみなすことができる。なお、ステップSd7の処理の後、ステップSd8へ進むが、既に、発音中で発音フラグがセットされている場合は、ステップSd2の判断の後、直接ステップSd8へ進む。   Next, the rhythm difference data is compared with singing skill data (step Sd6), and the degree of coincidence is added and stored in a storage area corresponding to the current section in the point storage area 523 (step Sd7). Here, note-on event data of a musical tone track can be used as singing skill data representing the timing difference. That is, it can be considered that the exact beat timing difference of the note-on event data represents the skill for playing the music skillfully. Note that after the processing in step Sd7, the process proceeds to step Sd8. If the sound generation flag is already set and the sound generation flag is set, the process proceeds directly to step Sd8 after the determination in step Sd2.

ステップSd8以下では、歌唱音声とリファレンスの音量データを比較してその差を算出し(ステップSd8)、この差を音量差分データとして音量差分データ記憶エリア522b内の現在の区間に対応する記憶エリアに記憶する(ステップSd9)。そして、この音量差分データを歌唱技巧データと比較し、その一致の程度、即ち、歌唱が技巧を有しているか否かを判断し(ステップSd10)、一致の程度を加算ポイントとしてポイント記憶エリア523内の現在の区間に対応する記憶エリアに記憶する(ステップSd11)。   In step Sd8 and subsequent steps, the difference between the singing voice and the reference volume data is calculated (step Sd8), and this difference is set as volume difference data in the storage area corresponding to the current section in the volume difference data storage area 522b. Store (step Sd9). Then, the volume difference data is compared with the singing skill data to determine the degree of matching, that is, whether or not the singing has skill (step Sd10), and the degree of matching is set as an addition point to the point storage area 523. Is stored in the storage area corresponding to the current section (step Sd11).

つぎに、歌唱音声およびリファレンスの音高データを比較してその差を算出し(ステップSd12)、この差を音高差分データとして音高差分データ記憶エリア522a内の現在の区間に対応する記憶エリアに記憶する(ステップSd13)。そして、この音高差分データを歌唱技巧データと比較してその一致の程度を判断する(ステップSd14)。そして、この一致の程度を音高ポイントとしてポイント記憶エリア523に蓄積記憶する(ステップSd15)。   Next, the difference between the singing voice and the reference pitch data is calculated (step Sd12), and this difference is used as pitch difference data, and the storage area corresponding to the current interval in the pitch difference data storage area 522a. (Step Sd13). Then, the pitch difference data is compared with the singing skill data to determine the degree of coincidence (step Sd14). Then, the degree of coincidence is accumulated and stored in the point storage area 523 as a pitch point (step Sd15).

一方、ステップSd1において双方が発音中と判断されなかった場合には、ステップSd16へ進み、リファレンス、歌唱音声の双方が消音しているか否かを判断する。ステップSd16で双方が消音していると判断された場合には消音期間であるとして発音フラグをリセットし(ステップSd17)、リターンする。また、双方が消音中でない場合は、歌唱タイミングのずれであるとしてそのままリターンする。以上の処理により。3つの区間別に3要素毎の差分データおよびポイントを求めることができる。   On the other hand, if it is not determined in step Sd1 that both are sounding, the process proceeds to step Sd16, where it is determined whether both the reference and the singing voice are muted. If it is determined in step Sd16 that both of them are muted, the sound generation flag is reset as a muting period (step Sd17), and the process returns. Moreover, when both of them are not muted, it returns as it is because the singing timing is shifted. With the above processing. Difference data and points for every three elements can be obtained for each of the three sections.

つぎに、採点処理の一例を図11に基づいて説明する。この処理は楽曲の終了して後に行われるもので、まず、楽曲の演奏が終了すると、演奏中に蓄積記憶された各パートの音量差分データを各々集計し(ステップSe1)、減点値を算出する(ステップSe2)。そして、この減点値を満点(100点)から減算して音量の得点を算出する(ステップSe3)。同様に、音高差分データ、リズム差分データを各々集計して減算値を算出し、音高、リズムの得点を算出する(ステップSe4〜Se9)。そして、これら3つの音楽要素の得点を平均して総合得点を算出し(ステップSe10)、これを表現する文字情報をモニター装置59の画面に表示する(ステップSe11)。   Next, an example of the scoring process will be described with reference to FIG. This process is performed after the end of the music. First, when the performance of the music ends, the volume difference data of each part accumulated and stored during the performance is totaled (step Se1), and a deduction point value is calculated. (Step Se2). Then, the deduction point value is subtracted from the perfect score (100 points) to calculate the volume score (step Se3). Similarly, the pitch difference data and the rhythm difference data are totaled to calculate a subtraction value, and the pitch and rhythm scores are calculated (steps Se4 to Se9). Then, an average score is calculated by averaging the scores of these three music elements (step Se10), and character information representing this is displayed on the screen of the monitor device 59 (step Se11).

以上は、歌唱力採点の通常の処理の流れであり、デュエット曲の場合、個々の歌唱者の歌唱パート毎に歌唱力が採点されるが、一方の歌唱者が他方の歌唱者をアシストした場合のアシスト評価処理について以下に説明する。かかる処理の前提として、個々の歌唱者が歌唱すべき歌唱パートにおける歌唱力が設定した基準以下となったことを判断し、他方の歌唱者へ一方の歌唱者をアシストして歌唱する指示を行わなければならない。前記基準は、リアルタイムで発生する各差分データあるいは歌唱力採点の結果に基づいて可能となる。また、一方の歌唱者の歌唱力が低下し、他方の歌唱者がアシストを行う場合、一方の歌唱者のリファレンスデータが他方の歌唱者のリファレンスデータともなるように、このリファレンスデータの置換を行わなければならない。   The above is the normal processing flow of singing ability scoring. In the case of a duet song, the singing ability is scored for each singing part of each individual singer, but one singer assists the other singer. The assist evaluation process will be described below. As a premise of such processing, it is judged that the singing ability in the singing part that each singer should sing falls below the set standard, and the other singer is instructed to sing by assisting one singer. There must be. The reference can be made based on each difference data generated in real time or a result of singing ability scoring. In addition, when the singing ability of one singer decreases and the other singer performs assist, the reference data of one singer is replaced with the reference data of the other singer so that the reference data is replaced. There must be.

図12は、上記処理を行うためのリファレンス置換部683の構成を具体的に示したものである。このリファレンス置換部683は、リファレンスデータバッファ683a・683b・683c・683dを備え、歌唱者毎のリファレンスデータR1/R2を設定することができるようにしている。前記リファレンスデータバッファ683a・683b・683c・683dはバスBUSに接続され、各歌唱者のリファレンスデータR1/R2が入力可能となるようにしており、CPU50の指示に基づいて送出される選択信号S1・S2・S3・S4に基づいて選択されたリファレンスデータR1/R2が入力するようにしている。   FIG. 12 specifically shows the configuration of the reference replacement unit 683 for performing the above processing. The reference replacement unit 683 includes reference data buffers 683a, 683b, 683c, and 683d so that reference data R1 / R2 for each singer can be set. The reference data buffers 683a, 683b, 683c, and 683d are connected to the bus BUS so that the reference data R1 / R2 of each singer can be input, and a selection signal S1. Reference data R1 / R2 selected based on S2, S3, and S4 is input.

図13は、リファレンス置換部683の処理によりリファレンスデータR1/R2が置換される状態を示すものである。同図に示す例では、デュエット曲を歌唱する歌唱者Aの歌唱パートにはリファレンスデータR1が割り振られ、歌唱者BにはリファレンスデータR2が割り振られている状態を示す。かかる状態において、この楽曲の演奏が継続され、時刻t1から歌唱者Bの歌唱パートとなり、時刻t2でこの歌唱者Bの歌唱力が設定された基準以下となったとき、CPU50はこれをアシストが必要な状態と判断してアシストの要求をモニター装置59などで通知する。   FIG. 13 shows a state in which the reference data R1 / R2 is replaced by the processing of the reference replacement unit 683. In the example shown in the figure, reference data R1 is assigned to the singing part of singer A who sings a duet song, and reference data R2 is assigned to singer B. In such a state, the performance of this music is continued and becomes the singing part of the singer B from the time t1, and when the singing power of the singer B falls below the set standard at the time t2, the CPU 50 assists this. The monitor device 59 or the like notifies the assist request by determining that the state is necessary.

同時にCPU50は、時刻t2でリファレンス置換部683のリファレンスデータバッファ683bにリファレンスデータR2を出力し、差分演算部681aにおいて歌唱者Aのカラオケマイク65aから入力する歌唱音声データの差分データの抽出が可能となり、時刻T2から開始された歌唱者Aの歌唱力の採点が採点部682aにおいて開始される。このとき、歌唱パートは依然歌唱者Bが歌唱すべき範囲にあるので、リファレンスデータR2はリファレンスデータバッファ683dに設定されている。   At the same time, the CPU 50 outputs the reference data R2 to the reference data buffer 683b of the reference replacement unit 683 at time t2, and the difference calculation unit 681a can extract the difference data of the singing voice data input from the karaoke microphone 65a of the singer A. The scoring of the singing ability of the singer A started from the time T2 is started in the scoring unit 682a. At this time, since the singing part is still in the range to be sung by the singer B, the reference data R2 is set in the reference data buffer 683d.

このようにして歌唱者Aによるアシストが進行し、このアシストを受けた歌唱者Bがそのアシストにより時刻t3で歌唱力を回復し、歌唱を再開するとリファレンスデータバッファ683bに設定されていたリファレンスデータR2の設定を終了するとともに、歌唱者Aの歌唱によるアシストを終了する。そして、歌唱者Bは担当する歌唱パートの残る部分を時刻t4まで歌唱する。   Thus, the assistance by the singer A proceeds, and the singer B who has received the assistance recovers the singing ability at the time t3 by the assistance, and when the singing is resumed, the reference data R2 set in the reference data buffer 683b And the assist by singing by the singer A is finished. And singer B sings the remaining part of the singing part in charge until time t4.

前記のように時刻t2〜t3において歌唱者Aがアシストした歌唱力の結果は、採点部682aからアシスト評価部69へ入力する。このアシスト評価部69では、歌唱者Aがアシストした部分の採点値に基づく採点結果をバスBUSへ出力し、アシストの優劣をモニター装置59に文言表現する。なお、歌唱者Aのアシストが複数回である場合は採点値を平均し、アシストの優劣を判断する。また、このアシストの優劣の判断要素として、歌唱者Bの歌唱力が回復するまでの時間、即ち、時刻t2〜t3の時間が短いほどアシストの効果があったものとして評価の基準に加えるよえにしてもよい。   As described above, the result of the singing power assisted by the singer A at the times t2 to t3 is input from the scoring unit 682a to the assist evaluation unit 69. The assist evaluation unit 69 outputs a scoring result based on the scoring value of the part sung by the singer A to the bus BUS, and expresses the superiority or inferiority of the assist on the monitor device 59. In addition, when the assistance of the singer A is a plurality of times, the scoring values are averaged to determine the superiority or inferiority of the assist. In addition, as an element for determining the superiority or inferiority of the assist, the time until the singing ability of the singer B recovers, that is, the effect of the assist becomes more effective as the time from the time t2 to the time t3 is shorter. May be.

なお、図13に示す例では、時刻t4から歌唱者Aの歌唱パートとなり、この歌唱者Aの歌唱力が時刻t5で設定された基準以下となり、歌唱者Bの差分演算部681bにリファレンスデータR1が設定された状態を示す。この場合も、前述と同様に時刻t5から歌唱者Bがアシストを開始し、時刻t6で歌唱者Aの歌唱力が回復して歌唱者Bの担当する歌唱パートの残る部分を時刻t7まで歌唱した状態を示す。したがって、歌唱者Bがアシストした時刻t5〜t6のカラオケマイク65bから入力した歌唱音声データから差分演算部681bにおいて差分データが抽出され、アシスト評価部69へ出力され、前述と同様にアシストの採点が実行される。   In addition, in the example shown in FIG. 13, it becomes a singing part of singer A from time t4, the singing ability of this singer A becomes below the standard set at time t5, and reference data R1 is stored in the difference calculation unit 681b of singer B. Indicates the set state. In this case as well, singer B starts assisting from time t5 in the same manner as described above, and the singing ability of singer A recovers at time t6, and the remaining part of the singing part in charge of singer B is sung until time t7. Indicates the state. Therefore, difference data is extracted in the difference calculation unit 681b from the singing voice data input from the karaoke microphone 65b at the time t5 to t6 when the singer B assists, and is output to the assist evaluation unit 69. Executed.

本発明のカラオケ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the karaoke apparatus of this invention. 楽曲データのフォーマットを示す図である。It is a figure which shows the format of music data. 楽曲データのトラックの内容を示す図である。It is a figure which shows the content of the track of music data. 楽曲データのトラックの内容を示す図である。It is a figure which shows the content of the track of music data. メモリマップの内容を示す図である。It is a figure which shows the content of a memory map. 歌唱力採点部の構成を示すブロック図である。It is a block diagram which shows the structure of a singing ability scoring part. データの取込処理を示すフローチャートである。It is a flowchart which shows the taking-in process of data. 楽曲データの入力処理を示すフローチャートである。It is a flowchart which shows the input process of music data. データ変換処理を示すフローチャートである。It is a flowchart which shows a data conversion process. 比較処理を示すフローチャートである。It is a flowchart which shows a comparison process. 採点処理の一例を示すフローチャートである。It is a flowchart which shows an example of a scoring process. リファレンス置換部の構成を示すブロック図である。It is a block diagram which shows the structure of a reference replacement part. 本発明の機能を説明する図である。It is a figure explaining the function of this invention.

符号の説明Explanation of symbols

50・・・・・・CPU(中央演算処理装置)
51・・・・・・ROM
52・・・・・・RAM
53・・・・・・通信制御部
54・・・・・・HDD(ハードディスク装置)
55・・・・・・リモコン受信部
56・・・・・・音源装置
57・・・・・・文字表示部
58・・・・・・表示制御部
59・・・・・・モニター装置
60・・・・・・音声データ処理部
61・・・・・・リモコン送信機
62・・・・・・D/A変換器
63・・・・・・音響装置
64・・・・・・スピーカシステム
65a・・・・・カラオケマイク
65b・・・・・カラオケマイク
67a・・・・・A/D変換器
67b・・・・・A/D変換器
68・・・・・・歌唱力採点部
680a・・・・データ抽出部
680b・・・・データ抽出部
681a・・・・差分演算部
681b・・・・差分演算部
682a・・・・採点部
682b・・・・採点部
683・・・・・リファレンス置換部
69・・・・・・アシスト評価部
50 .... CPU (Central Processing Unit)
51 ... ROM
52 .... RAM
53 ... Communication control unit 54 ... HDD (Hard disk drive)
55... Remote control receiver 56... Sound source device 57... Character display 58... Display control unit 59. ...... Voice data processing unit 61 ... Remote control transmitter 62 ... D / A converter 63 ... Sound device 64 ... Speaker system 65a ... Karaoke microphone 65b ... Karaoke microphone 67a ... A / D converter 67b ... A / D converter 68 ... Singing ability scoring part 680a- ... Data extraction unit 680b ... Data extraction unit 681a ... Difference calculation unit 681b ... Difference calculation unit 682a ... Scoring unit 682b ... Scoring unit 683 ... Reference replacement part 69 ・ ・ ・ ・ ・ ・ Assist evaluation part

Claims (3)

歌唱者毎に歌唱パートを分担して歌唱するための二重唱楽曲を保有し、各二重唱楽曲にはそれぞれ複数の採点区間が設定されていると共に、歌唱力採点手段と、リファレンス置換手段と、アシスト評価手段とを有してなり、
(ア)歌唱力採点手段は、二重唱楽曲における各歌唱パートに対応したカラオケマイク毎に予め設定されたリファレンスに基づき、それぞれの歌唱パートの採点区間毎に採点値を算出し、
(イ)リファレンス置換手段は、一方の歌唱パートにおける連続した所定数の採点区間にて、その算出された採点値が何れも予め設定された基準値を下回った場合、他方の歌唱パートのカラオケマイクに設定されたリファレンスを、前記一方の歌唱パートのカラオケマイクに設定されたリファレンスに置換し、かつ、前記一方の歌唱者の歌唱パートに対応する連続した所定数の採点区間にて、その算出された採点値が何れも前記基準値を上回った場合、あるいは、楽曲演奏が他方の歌唱者の歌唱パートを含む歌唱部分に切り替わった場合、前記置換されたカラオケマイクのリファレンスを前記設定されたリファレンスに戻し、
(ウ)アシスト評価手段は、前記リファレンスの置換中において、前記他方の歌唱者による前記一方の歌唱パートを歌唱した採点区間の採点値および/または前記基準値が下回った時点から前記基準値が上回った時点までの時間と、を判断要素として評価する、
ことを特徴とするカラオケ装置。
Each singer has a double-song for sharing the singing part, and each double-song has a plurality of scoring sections. Singing ability scoring means, reference replacement means, and assist evaluation Means,
(A) Singing power scoring means calculates a scoring value for each scoring section of each singing part based on a preset reference for each karaoke microphone corresponding to each singing part in the double-song music,
(A) In the case where the calculated scoring value falls below a preset reference value in a predetermined number of consecutive scoring sections in one singing part, the reference replacement means is a karaoke microphone of the other singing part Is replaced with the reference set in the karaoke microphone of the one singing part, and is calculated in a predetermined number of consecutive scoring intervals corresponding to the singing part of the one singer. When the scoring value exceeds the reference value, or when the music performance is switched to the singing part including the singing part of the other singer, the reference of the replaced karaoke microphone is set as the set reference. Return,
(C) During the replacement of the reference, the assist evaluation means is configured such that the reference value exceeds the reference value from the time when the score value and / or the reference value of the scoring section where the other singer sang the one singing part falls. The time to the point in time
A karaoke apparatus characterized by that.
(エ)アシスト評価手段は、前記リファレンスの置換中において、前記他方の歌唱者による前記一方の歌唱パートにおける各採点区間の歌唱に対する平均採点値と、前記基準値が下回った時点から前記基準値が上回った時点までの時間に加え、さらに、前記基準値が下回った時点から前記他方の歌唱者による前記一方の歌唱パートの歌唱開始時点までの時間と、を判断要素として評価する、
ことを特徴とする請求項1記載のカラオケ装置。
(D) During the replacement of the reference, the assist evaluation means determines that the reference value is determined from the average score value for the singing of each scoring section in the one singing part by the other singer, and from the time when the reference value falls below. In addition to the time until the time when it exceeds, the time from the time when the reference value falls to the time when the other singer starts singing the one singing part is evaluated as a determination factor.
The karaoke apparatus according to claim 1.
前記歌唱力採点手段と、リファレンス置換手段と、アシスト評価手段に加え、さらに、アシスト通知手段とを有してなり、
(オ)アシスト通知手段は、前記基準値が下回った時点にて、画面表示および/または音声出力をもって、歌唱者に対してアシスト要求の通知をさせる、
ことを特徴とする請求項1記載ないし請求項2記載のカラオケ装置。
In addition to the singing ability scoring means, the reference replacement means, and the assist evaluation means, further comprising an assist notification means,
(E) The assist notification means notifies the singer of an assist request with a screen display and / or audio output when the reference value falls below.
3. The karaoke apparatus according to claim 1, wherein the karaoke apparatus is a karaoke apparatus.
JP2005293860A 2005-10-06 2005-10-06 Karaoke device with assist evaluation function Active JP4452671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005293860A JP4452671B2 (en) 2005-10-06 2005-10-06 Karaoke device with assist evaluation function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005293860A JP4452671B2 (en) 2005-10-06 2005-10-06 Karaoke device with assist evaluation function

Publications (2)

Publication Number Publication Date
JP2007102019A JP2007102019A (en) 2007-04-19
JP4452671B2 true JP4452671B2 (en) 2010-04-21

Family

ID=38029015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005293860A Active JP4452671B2 (en) 2005-10-06 2005-10-06 Karaoke device with assist evaluation function

Country Status (1)

Country Link
JP (1) JP4452671B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222427A (en) * 2011-06-20 2011-10-19 东北师范大学 Device for assisting in teaching music sight-singing
JP6415341B2 (en) * 2015-01-30 2018-10-31 株式会社第一興商 Karaoke system with pitch shift function for harmony singing

Also Published As

Publication number Publication date
JP2007102019A (en) 2007-04-19

Similar Documents

Publication Publication Date Title
KR100317910B1 (en) Machine-readable media including karaoke devices that can be individually scored for two-intestinal tracts, karaoke accompaniment methods, and instructions for performing actions that accompany karaoke music.
JP3598598B2 (en) Karaoke equipment
JP4212446B2 (en) Karaoke equipment
JP4487209B2 (en) Karaoke device and karaoke processing program
JP4204941B2 (en) Karaoke equipment
JP4452671B2 (en) Karaoke device with assist evaluation function
JP6414164B2 (en) Automatic performance device, automatic performance method, program, and electronic musical instrument
JP4222915B2 (en) Singing voice evaluation device, karaoke scoring device and programs thereof
JP4135004B2 (en) Karaoke equipment
JP2006284919A (en) Karaoke machine and program
JP2006259237A (en) Karaoke scoring device for grading synchronism of duet
JP2006259401A (en) Karaoke machine
JPH1091061A (en) Playing instruction device and medium recorded with program
JP2006301019A (en) Pitch-notifying device and program
JP5287616B2 (en) Sound processing apparatus and program
JP4209751B2 (en) Karaoke equipment
JP5391939B2 (en) Sound processing apparatus and program
JP2000330580A (en) Karaoke apparatus
JP6414163B2 (en) Automatic performance device, automatic performance method, program, and electronic musical instrument
JP2005107332A (en) Karaoke machine
JP2001228866A (en) Electronic percussion instrument device for karaoke sing-along machine
JP2007065344A (en) Congeniality degree judging device for karaoke
JP4159961B2 (en) Karaoke equipment
JPH1069216A (en) Karaoke sing-alone machine
JP2005107335A (en) Karaoke machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100201

R150 Certificate of patent or registration of utility model

Ref document number: 4452671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250