JP2007334364A - Karaoke machine - Google Patents

Karaoke machine Download PDF

Info

Publication number
JP2007334364A
JP2007334364A JP2007204778A JP2007204778A JP2007334364A JP 2007334364 A JP2007334364 A JP 2007334364A JP 2007204778 A JP2007204778 A JP 2007204778A JP 2007204778 A JP2007204778 A JP 2007204778A JP 2007334364 A JP2007334364 A JP 2007334364A
Authority
JP
Japan
Prior art keywords
singing
frequency
scoring
note
karaoke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007204778A
Other languages
Japanese (ja)
Inventor
Shingo Kamiya
伸悟 神谷
Satoshi Tachibana
聡 橘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Daiichikosho Co Ltd
Original Assignee
Yamaha Corp
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp, Daiichikosho Co Ltd filed Critical Yamaha Corp
Priority to JP2007204778A priority Critical patent/JP2007334364A/en
Publication of JP2007334364A publication Critical patent/JP2007334364A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a Karaoke machine having a scoring function that can accurately determine whether an actual singing is good. <P>SOLUTION: Basic points are calculated by scoring the frequency of a singing, and additional points are also calculated by scoring other singing elements such as vibratos, intonation, voice quality, timing, and bending, of the singing. The additional points are added to the basic points to obtain final scores. Consequently, although the scoring is performed principally based upon the singing frequency, other singing elements are taken in consideration for the scoring and final scores matching whether the actual singing is good can be calculated. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、歌唱採点機能を備えたカラオケ装置における採点精度の向上に関する。   The present invention relates to an improvement in scoring accuracy in a karaoke apparatus having a singing scoring function.

従来よりカラオケ装置には、歌唱者の歌唱の巧拙を採点する採点機能を備えたものがあった。従来より実用化されている採点機能は、ガイドメロディなどのリファレンスから抽出した音高と歌唱音声から抽出した周波数とを比較するもの(たとえば特許文献1)やこれに音量変化の評価を加味したもの(特許文献2)などがあった。   Conventionally, some karaoke apparatuses have a scoring function for scoring the skill of a singer. The scoring function that has been practically used in the past compares the pitch extracted from the reference such as a guide melody with the frequency extracted from the singing voice (for example, Patent Document 1), and adds the evaluation of the volume change to this. (Patent Document 2).

特開平10−49183号公報Japanese Patent Laid-Open No. 10-49183 特開平10−161673号公報JP-A-10-161673

しかし、ガイドメロディは、音高を指示するイベントデータ(ノートオンイベントデータおよびノートオフイベントデータ)を配列したMIDIデータであるため、従来の採点機能では基本的な歌唱要素である歌唱周波数しか採点することができず、他の技巧的な歌唱要素を正しく評価して採点することができなかった。このため、歌唱の本当の巧拙を正しく評価した得点を算出することができないという問題点があった。   However, since the guide melody is MIDI data in which event data (note-on event data and note-off event data) indicating pitches is arranged, the conventional scoring function scores only the singing frequency, which is a basic singing element. It was not possible to correctly evaluate and score other skillful singing elements. For this reason, there was a problem that it was impossible to calculate a score that correctly evaluated the true skill of singing.

この発明は、実際の歌唱の巧拙を正確に判定することができるようにした採点機能付きのカラオケ装置を提供することを目的とする。   An object of the present invention is to provide a karaoke apparatus with a scoring function that can accurately determine the skill of actual singing.

請求項1の発明は、カラオケ曲を演奏する演奏手段と、歌唱音声を入力する歌唱入力手段と、入力された歌唱音声を採点する採点手段と、を備えたカラオケ装置であって、The invention of claim 1 is a karaoke apparatus comprising performance means for playing karaoke music, singing input means for inputting singing voice, and scoring means for scoring the inputted singing voice,
前記採点手段は、(1)音符の開始タイミングで歌唱周波数とリファレンス周波数が一定以上離れていること、(2)最終的には歌唱周波数がリファレンス周波数の音程許容範囲内に到達すること、(3)歌唱周波数が滑らかに上昇してゆくこと、を含むルールに適合しているか否かに基づき、歌唱旋律が上昇音形のときに徐々に滑らかに音高をあげてゆく歌唱技巧であるしゃくりの技巧で歌唱されたか否かを採点することを特徴とする。The scoring means is: (1) the singing frequency and the reference frequency are separated by a certain distance or more at the start timing of the note; (2) the singing frequency finally reaches within the allowable range of the reference frequency; (3 ) Skillful singing skill that gradually raises the pitch when the singing melody is in the rising tone form, based on whether or not it conforms to the rules including the singing frequency rising smoothly It is characterized by scoring whether it was sung by skill.

請求項2の発明は、前記採点手段は、さらに、(4)歌唱周波数が上昇を開始する前に一点周波数が下降すること、のルールに適合しているか否かに基づき、前記しゃくりの技巧で歌唱されたか否かを採点することを特徴とする。The invention according to claim 2 is characterized in that the scoring means is based on whether or not the scoring technique is based on whether or not (4) the singing frequency decreases before the singing frequency starts increasing. It is characterized by scoring whether or not it was sung.

請求項3の発明は、カラオケ曲を演奏する演奏手段と、歌唱音声を入力する歌唱入力手段と、入力された歌唱音声の周波数を検出する歌唱周波数検出手段と、技巧的歌唱要素を採点するためのルールを記憶する記憶手段と、入力された歌唱音声を採点する採点手段と、を備えたカラオケ装置であって、
前記演奏手段は、楽曲データに基づいてカラオケ曲の楽音信号を形成するとともに、このカラオケ曲の楽音信号に同期したリファレンス周波数を出力し、
前記採点手段は、前記歌唱音声の周波数を前記リファレンス周波数と比較することによって採点し、基本得点を算出する周波数採点手段と、前記歌唱音声の技巧的な歌唱要素を前記ルールを用いて採点して付加ポイントを算出する歌唱要素採点手段と、前記基本得点に前記付加ポイントを加算して最終得点を求める最終得点算出手段と、を備えていることを特徴とする。
The invention of claim 3 is for scoring performance means for playing karaoke music, singing input means for inputting singing voice, singing frequency detecting means for detecting the frequency of the inputted singing voice, and technical singing elements. A karaoke apparatus comprising storage means for storing the rules and scoring means for scoring the input singing voice,
The performance means forms a musical sound signal of the karaoke song based on the music data, and outputs a reference frequency synchronized with the musical sound signal of the karaoke song,
The scoring means scoring by comparing the frequency of the singing voice with the reference frequency, and scoring the technical singing elements of the singing voice using the rules, and the frequency scoring means for calculating a basic score. Singing element scoring means for calculating an additional point, and final score calculating means for obtaining a final score by adding the additional point to the basic score.

請求項4の発明は、請求項3の発明において、前記周波数採点手段は、前記歌唱音声を音符ごとに採点し、この音符ごとの採点結果を集計して基本得点を算出することを特徴とする。   The invention according to claim 4 is the invention according to claim 3, wherein the frequency scoring means scores the singing voice for each note and calculates a basic score by summing up the scoring results for each note. .

請求項5の発明は、請求項3、4の発明において、前記周波数採点手段は、前記歌唱周波数検出手段が検出した歌唱音声の周波数を低域ろ波(LPF)したものを用いて採点し、前記歌唱要素採点手段は、前記歌唱周波数検出手段が検出した歌唱音声の周波数をそのまま用いて採点することを特徴とする。The invention of claim 5 is the invention of claims 3 and 4, wherein the frequency scoring means scores using a low-pass filtered (LPF) frequency of the singing voice detected by the singing frequency detecting means, The singing element scoring means scores using the frequency of the singing voice detected by the singing frequency detecting means as it is.

請求項6の発明は、請求項3〜5の発明において、前記歌唱要素採点手段は、前記技巧的な歌唱要素として、歌唱の周期的な周波数変動であるビブラート、歌唱のフレーズ内での音量の変動である抑揚、歌唱の音質、各音符の歌いだしタイミング、音高の移行波形であるしゃくり、の1または複数の歌唱要素を採点することを特徴とする。 The invention of claim 6 is the invention of claims 3 to 5, wherein the singing element scoring means is a vibrato that is a periodic frequency variation of the singing, and a volume of the singing phrase as the technical singing element . It is characterized by scoring one or a plurality of singing elements of inflection that is variation, singing sound quality, singing timing of each note, and screaming that is a transition waveform of pitch.

請求項7の発明は、請求項3〜5の発明において、前記歌唱要素採点手段は、(1)音符の開始タイミングで歌唱周波数とリファレンス周波数が一定以上離れていること、(2)最終的には歌唱周波数がリファレンス周波数の音程許容範囲内に到達すること、(3)歌唱周波数が滑らかに上昇してゆくこと、を含むルールに適合しているか否かに基づき、歌唱旋律が上昇音形のときに徐々に滑らかに音高をあげてゆく歌唱技巧であるしゃくりの技巧で歌唱されたか否かを採点することを特徴とする。The invention according to claim 7 is the invention according to claims 3 to 5, wherein the singing element scoring means is (1) that the singing frequency and the reference frequency are separated by a certain distance or more at the start timing of the note, and (2) finally. Is based on whether the singing frequency is within the allowable range of the reference frequency, and (3) the singing frequency rises smoothly. It is characterized by scoring whether or not it was sung with the skill of screaming, which is a singing skill that gradually raises the pitch gradually.

請求項8の発明は、請求項7の発明において、前記歌唱要素採点手段は、さらに、(4)歌唱周波数が上昇を開始する前に一点周波数が下降すること、のルールに適合しているか否かに基づき、前記しゃくりの技巧で歌唱されたか否かを採点することを特徴とする。 The invention of claim 8 is the invention of claim 7, wherein the singing element scoring means further complies with the rule that (4) the single-point frequency is lowered before the singing frequency starts to rise. Based on the above, it is characterized by scoring whether or not the song is sung by the skill of the shawl.

上記発明では、基本的な歌唱の要素である歌唱周波数に加えて、ビブラート、抑揚、声質、タイミング、および、音高の移行波形(しゃくり)など他の歌唱要素も採点する。そして、歌唱周波数を採点した結果を得点の中心(基本得点)としつつ、他の歌唱要素を採点結果から求めた点数を付加ポイントとして加算(減算)することにより、歌唱者の歌唱の巧拙を正しく且つ聴衆の評価と一致するように判定することができる。   In the above-described invention, in addition to the singing frequency which is a basic singing element, other singing elements such as vibrato, intonation, voice quality, timing, and pitch transition waveform (shearing) are also scored. And, by making the result of scoring the singing frequency the center of the score (basic score), by adding (subtracting) the score obtained from the scoring result of other singing elements as additional points, the singer's singing skill is correctly It can also be determined to match the audience's evaluation.

以上のようにこの発明によれば、歌唱周波数の採点結果を基本とし、ビブラート、抑揚、声質、タイミング、しゃくりなど他の歌唱要素を評価して最終得点を算出することができるため、歌唱の種々の要素を正しく評価した実際の歌唱の巧拙に一致した採点をすることが可能になる。   As described above, according to the present invention, the final score can be calculated by evaluating other singing elements such as vibrato, intonation, voice quality, timing, and sneezing based on the singing frequency scoring result. It is possible to score according to the skill of actual singing that correctly evaluated the elements of.

図面を参照してこの発明の実施形態であるカラオケ装置について説明する。
カラオケ装置において、カラオケ曲の演奏はカラオケ曲の楽音を発生しながら背景映像・歌詞テロップをモニタに出力する動作であるが、採点モードを設定すると、このカラオケ曲の演奏に加えて、歌唱者の歌唱音声をリファレンスと比較することによって採点して点数を算出し、曲の終了後にその点数を表示する採点動作を実行する。
A karaoke apparatus according to an embodiment of the present invention will be described with reference to the drawings.
In a karaoke device, the performance of a karaoke song is the operation of outputting the background video / lyric telop to the monitor while generating the music of the karaoke song, but if the scoring mode is set, in addition to the performance of this karaoke song, the singer's performance The singing voice is scored by comparing it with a reference to calculate a score, and a scoring operation is performed to display the score after the end of the song.

採点は、基本的に歌唱の周波数(音程・ピッチ)について行って基本点数を算出し、これに加えて、ビブラートの程度、抑揚の程度、音質の良否、タイミングの良否、しゃくりの回数などに基づいてボーナスポイントを算出して前記基本点数に加算(減算)する。   The scoring is basically based on the frequency of the singing (pitch / pitch) and the basic score is calculated. In addition to this, it is based on the degree of vibrato, the degree of inflection, the quality of sound quality, the quality of timing, the number of squeaks, etc. Bonus points are calculated and added (subtracted) to the basic score.

図1は、同カラオケ装置のブロック図である。カラオケ装置は、装置全体の動作を制御するCPU10と、これに接続された各種機器で構成されている。CPU10には、ハードディスク11、RAM12、音源13、ミキサ(エフェクタ)14、ボーカルアダプタ19、MPEGデコーダ20、合成回路21、操作部23が接続されている。ハードディスク11は、カラオケ曲を演奏するための曲データやモニタに背景映像を表示するための映像データなどを記憶している。また、ハードディスク11には、図13に示すポイント算出テーブルも記憶されている。このポイント算出テーブルは、抑揚やビブラートなどの歌唱要素に基づいて付加的なポイントを決定するためのテーブルである(詳細は後述する)。RAM12には、プログラムや曲データを読み出すエリア、および、採点モード時に採点結果等を記録する採点ログエリアなどが設定されている。   FIG. 1 is a block diagram of the karaoke apparatus. The karaoke apparatus is composed of a CPU 10 that controls the operation of the entire apparatus and various devices connected thereto. Connected to the CPU 10 are a hard disk 11, a RAM 12, a sound source 13, a mixer (effector) 14, a vocal adapter 19, an MPEG decoder 20, a synthesis circuit 21, and an operation unit 23. The hard disk 11 stores music data for playing karaoke music, video data for displaying a background video on a monitor, and the like. The hard disk 11 also stores a point calculation table shown in FIG. This point calculation table is a table for determining additional points based on singing elements such as intonation and vibrato (details will be described later). In the RAM 12, an area for reading out programs and music data, a scoring log area for recording scoring results and the like in the scoring mode are set.

音源13は、CPU10が実行する曲シーケンサ31の処理によって入力された曲データ(ノートイベントデータ等)に応じて楽音信号を形成する。形成した楽音信号はミキサ14に入力される。ミキサ14は、音源13が発生した複数の楽音信号、および、マイク17−A/Dコンバータ18を介して入力された歌唱者の歌唱音声信号に対してエコーなどの効果を付与するとともに、これらの信号を適当なバランスでミキシングする。ミキシングされたデジタルの音声信号はサウンドシステム15に入力される。サウンドシステム15はD/Aコンバータおよびパワーアンプを備えており、入力されたデジタル信号をアナログ信号に変換して増幅し、スピーカ16から放音する。ミキサ14が各音声信号に付与する効果およびミキシングのバランスはCPU10によって制御される。   The sound source 13 forms a musical sound signal in accordance with music data (note event data or the like) input by the music sequencer 31 executed by the CPU 10. The formed tone signal is input to the mixer 14. The mixer 14 gives an effect such as echo to the plurality of musical sound signals generated by the sound source 13 and the singing voice signal of the singer input via the microphone 17 -A / D converter 18. Mix the signal with an appropriate balance. The mixed digital audio signal is input to the sound system 15. The sound system 15 includes a D / A converter and a power amplifier. The input digital signal is converted into an analog signal, amplified, and emitted from the speaker 16. The effect that the mixer 14 gives to each audio signal and the balance of mixing are controlled by the CPU 10.

また、A/Dコンバータ18によってデジタル信号に変換された歌唱音声信号は、ボーカルアダプタ19にも入力される。ボーカルアダプタ19は、この入力された歌唱音声信号から歌唱周波数を割り出すとともに、CPU10の曲シーケンサ31から入力されたリファレンスの周波数を割り出す。そして、この歌唱周波数とリファレンス周波数を同期させて30ms毎にCPU10(採点モード処理34)に入力する。リファレンスとしては、曲データに含まれるガイドメロディデータが用いられる。また割り出した周波数は、C0からのセント値で表現される。   The singing voice signal converted into a digital signal by the A / D converter 18 is also input to the vocal adapter 19. The vocal adapter 19 calculates the singing frequency from the input singing voice signal and also calculates the reference frequency input from the music sequencer 31 of the CPU 10. And this singing frequency and a reference frequency are synchronized and it inputs into CPU10 (scoring mode process 34) every 30 ms. As the reference, guide melody data included in the song data is used. The determined frequency is expressed as a cent value from C0.

HDD11に記憶されている背景映像データ41は、MPEG2形式にエンコードされており、CPU10が実行する背景映像再生プログラム33は、これを読み出してMPEGデコーダ20に入力する。MPEGデコーダ20は、入力されたMPEGデータをNTSCの映像信号に変換して合成回路21に入力する。合成回路21は、この背景映像の映像信号の上に歌詞テロップや採点結果の表示などのOSDを合成する回路である。この合成された映像信号はモニタディスプレイ22に表示される。   The background video data 41 stored in the HDD 11 is encoded in the MPEG2 format, and the background video reproduction program 33 executed by the CPU 10 reads it and inputs it to the MPEG decoder 20. The MPEG decoder 20 converts the input MPEG data into an NTSC video signal and inputs it to the synthesis circuit 21. The synthesizing circuit 21 is a circuit that synthesizes an OSD such as a lyrics telop or a scoring result display on the video signal of the background video. The synthesized video signal is displayed on the monitor display 22.

操作部23は、パネルスイッチインタフェースやリモコン受信回路などからなっており、利用者によるパネルスイッチやリモコン装置の操作に応じた操作信号をCPU10に入力する。CPU10は、操作入力処理プログラム35によってこの操作信号を検出し、対応する処理を実行する。この操作入力処理プログラム35はシステムプログラムに含まれるものである。   The operation unit 23 includes a panel switch interface, a remote control receiving circuit, and the like, and inputs an operation signal to the CPU 10 according to the operation of the panel switch and the remote control device by the user. The CPU 10 detects this operation signal by the operation input processing program 35 and executes a corresponding process. The operation input processing program 35 is included in the system program.

パネルスイッチやリモコン装置は、曲番号を選択したり、採点モードなどのモードを選択するための種々のキースイッチを備えている。   The panel switch and the remote control device are provided with various key switches for selecting a song number and selecting a mode such as a scoring mode.

パネルスイッチやリモコン装置で曲番号が入力されると、操作入力処理プログラム35がこれを検出し、カラオケ曲のリクエストであるとしてシーケンサ30に伝達する。シーケンサ30は、これに応じて、この曲番号で識別されるカラオケ曲の曲データをハードディスク11の曲データ記憶エリア40から読み出す。シーケンサ30は、曲シーケンサ31および歌詞シーケンサ32からなっており、歌詞シーケンサ32は、文字パターン作成プログラム32aを含んでいる。曲シーケンサ31は曲データ中の演奏データトラック、ガイドメロディトラックなどのトラックのデータを読み出し、このデータで音源13を制御することによってカラオケ曲の演奏音を発生させる。また、歌詞シーケンサ32は、曲データ中の歌詞トラックのデータを読み出し、このデータに基づいて歌詞テロップの画像パターンを作成して合成回路21に出力する。また、背景映像再生プログラム33は、シーケンサ30からの指示に応じて所定の背景映像データを読み出してMPEGデコーダ20に入力する。   When a song number is input with a panel switch or a remote control device, the operation input processing program 35 detects this and transmits it to the sequencer 30 as a request for a karaoke song. In response, the sequencer 30 reads the song data of the karaoke song identified by this song number from the song data storage area 40 of the hard disk 11. The sequencer 30 includes a song sequencer 31 and a lyrics sequencer 32, and the lyrics sequencer 32 includes a character pattern creation program 32a. The music sequencer 31 reads the data of tracks such as performance data tracks and guide melody tracks in the music data, and controls the sound source 13 with this data to generate performance sounds of karaoke music. The lyrics sequencer 32 reads the data of the lyrics track in the song data, creates a lyrics telop image pattern based on the data, and outputs the image pattern to the synthesis circuit 21. Further, the background video reproduction program 33 reads predetermined background video data in accordance with an instruction from the sequencer 30 and inputs it to the MPEG decoder 20.

ここで、図2を参照してハードディスク11に記憶されている曲データについて説明する。曲データは、同図(A)に示すように、カラオケ曲を演奏するための楽音トラック、ガイドメロディを発生するためのガイドメロディトラック、歌詞テロップを表示するための歌詞トラック、曲中の区切りを示すマークデータが書き込まれるマークデータトラックなどからなっている。曲データは、これ以外にヘッダ、音声データ、音声データ制御トラックなどを有しているが説明を簡略化するためにこの図では省略する。   Here, the music data stored in the hard disk 11 will be described with reference to FIG. As shown in FIG. 1A, the song data includes a musical sound track for playing a karaoke song, a guide melody track for generating a guide melody, a lyrics track for displaying a lyrics telop, and a break in the song. The mark data track is written with mark data to be indicated. The song data has a header, audio data, audio data control track, etc. in addition to this, but it is omitted in this figure for the sake of simplicity.

各トラックは、MIDIフォーマットに従って記述されている。たとえば、ガイドメロディトラックは、同図(B)に示すように、ノートオンイベントデータ、ノートオフイベントデータなどのイベントデータと各イベントデータの読み出しタイミングを示すタイミングデータからなっている。ノートオンイベントデータは音高データを含み、このノートオンによって発生する楽音(ガイドメロディ)の音高を指定する。この楽音は次のノートオフイベントデータが読み出されるまで継続する。   Each track is described according to the MIDI format. For example, the guide melody track is composed of event data such as note-on event data and note-off event data and timing data indicating the read timing of each event data, as shown in FIG. The note-on event data includes pitch data, and specifies the pitch of a musical tone (guide melody) generated by the note-on. This musical tone continues until the next note-off event data is read out.

タイミングデータは、各イベントデータ間の時間的間隔を示すデュレーションデータや曲のスタート時刻からの絶対時間を示す絶対時間データなどで構成することができる。   The timing data can be composed of duration data indicating the time interval between the event data, absolute time data indicating the absolute time from the start time of the music, and the like.

楽音トラック、ガイドメロディトラックのイベントデータは、上記のように楽音の音高、音量、オン/オフなどを示すノートイベントデータなどで構成され、このノートイベントデータを音源13に入力することにより、音源13はこのイベントデータに対応する楽音を発音したり消音したりする。楽音トラックは、多数の楽器の楽音を発生するために複数トラック(パート)で構成されており、ガイドメロディトラックは、歌唱旋律をガイドするための単旋律のMIDIデータで構成されている。   The event data of the musical tone track and the guide melody track is composed of the note event data indicating the pitch, volume, on / off, etc. of the musical tone as described above, and by inputting this note event data to the sound source 13, the sound source Reference numeral 13 sounds or mutes the musical sound corresponding to the event data. The musical sound track is composed of a plurality of tracks (parts) for generating musical sounds of a large number of musical instruments, and the guide melody track is composed of single melody MIDI data for guiding the singing melody.

また、マークデータトラックには、カラオケ曲の曲中の種々の区切り点を示すマークデータが書き込まれる。マークデータとしては、序奏と1コーラス目の区切りに書き込まれる1コーラス目マーク、1コーラス目と間奏の区切りに書き込まれる間奏マーク、間奏と2コーラス目の区切りに書き込まれる2コーラス目マーク、2コーラス目とエンディングの区切りに書き込まれるエンディングマークなどがあり、また、各コーラス中のサビの開始・終了点に書き込まれるサビ開始マーク、サビ終了マークなどがある。このマークは上記演奏トラック、ガイドメロディトラックが発生する楽音と同期しており、システムエクスクルーシブメッセージとして記述される。   Also, mark data indicating various break points in the karaoke song is written in the mark data track. Mark data includes the first chorus mark written at the beginning and the first chorus, the interlude mark written at the first chorus and interlude, the second chorus mark written at the second chorus and the second chorus. There is an ending mark or the like written at the separation between the eyes and the ending, and a rust start mark and rust end mark written at the start / end points of rust in each chorus. This mark is synchronized with the musical tone generated by the performance track and the guide melody track, and is described as a system exclusive message.

一方、歌詞トラックのイベントデータは、このカラオケ曲の歌詞テロップをシステムエクスクルーシブデータでインプリメントしたシーケンスデータであり、楽音トラックやガイドメロディトラックとは異なるイベントデータを有している。イベントデータは、ページ区切りデータ、歌詞表示データなどである。   On the other hand, the event data of the lyrics track is sequence data in which the lyrics telop of the karaoke song is implemented by system exclusive data, and has event data different from the musical tone track and the guide melody track. The event data is page break data, lyrics display data, and the like.

通常モードのカラオケ曲の演奏では、シーケンサ30により上記のようなカラオケ演奏音の発生や歌詞テロップの表示処理動作が行われるが、採点モード時には、これに加えて採点モード処理プログラム34により、採点処理動作が実行される。   In the performance of karaoke music in the normal mode, the sequencer 30 generates the karaoke performance sound and displays the lyrics telop as described above. In the scoring mode, the scoring process is performed by the scoring mode processing program 34 in addition to this. The action is executed.

この採点モード処理プログラム34を実行するために、ハードディスク11またはRAM12には図3に示すような記憶領域が確保される。この記憶領域は、ボーカルアダプタ19から30ms毎に出力される歌唱周波数およびリファレンス周波数を時系列に順次記憶してゆく領域、この歌唱周波数、リファレンス周波数に対してLPF処理(図4参照)したLPF歌唱周波数、LPFリファレンス周波数を記憶する領域、歌唱音声信号から振幅のエンベロープ(歌唱の音量レベル)を検出し、この歌唱レベル値を記憶する領域、および、曲シーケンサ31からボーカルアダプタ19を介して入力されるノートオン情報、ノートオフ情報、マークデータ情報を記憶する領域からなっている。採点モード処理プログラムは30ms毎に入力バッファをチェックし、上記各種データを取り込んでリストメモリにかきこむ。   In order to execute the scoring mode processing program 34, a storage area as shown in FIG. This storage area is an area where the singing frequency and the reference frequency output from the vocal adapter 19 every 30 ms are sequentially stored in time series, and the LPF singing obtained by LPF processing (see FIG. 4) for the singing frequency and the reference frequency. An area for storing frequency and LPF reference frequency, an envelope of amplitude (singing volume level) is detected from the singing voice signal, and an area for storing the singing level value, and input from the song sequencer 31 via the vocal adapter 19 This is an area for storing note-on information, note-off information, and mark data information. The scoring mode processing program checks the input buffer every 30 ms, takes in the various data, and writes it into the list memory.

ここで、図4の機能ブロックを参照して、採点モード時の各部の処理について説明する。
マイク17から入力された歌唱音声信号は、A/Dコンバータ18でデジタル音声信号に変換されてボーカルアダプタ19に入力される(同時にミキサ14にも入力されるがここでは採点モードの動作のみについて説明する)。ボーカルアダプタ19は、このデジタル音声信号をそのまま採点モード処理プログラム34に出力するとともに、歌唱周波数検出部102で歌唱周波数(セント値)を検出して採点モード処理プログラム34に出力する。
Here, with reference to the functional block of FIG. 4, the process of each part at the time of scoring mode is demonstrated.
The singing voice signal input from the microphone 17 is converted into a digital voice signal by the A / D converter 18 and input to the vocal adapter 19 (at the same time input to the mixer 14, but only the operation in the scoring mode is described here. To do). The vocal adapter 19 outputs the digital audio signal as it is to the scoring mode processing program 34, detects the singing frequency (cent value) by the singing frequency detection unit 102, and outputs it to the scoring mode processing program 34.

一方、ボーカルアダプタ19のリファレンス周波数検出部101には、カラオケ曲の演奏に同期して、曲シーケンサ31からリファレンスデータが入力される。リファレンスデータは、上述したようにガイドメロディデータが用いられる。リファレンス周波数検出部101は、入力されたMIDIデータのノートオンイベントデータから音高情報を抽出し、その音高のセント値をリファレンス周波数として採点モード処理プログラム34に出力する。   On the other hand, reference data is input from the song sequencer 31 to the reference frequency detector 101 of the vocal adapter 19 in synchronization with the performance of the karaoke song. As described above, guide melody data is used as the reference data. The reference frequency detector 101 extracts pitch information from the note-on event data of the input MIDI data, and outputs the pitch cent value as a reference frequency to the scoring mode processing program 34.

また、ボーカルアダプタ19には曲シーケンサ31からノートオン情報、ノートオフ情報、マークデータ情報などの制御情報が入力されるため、ボーカルアダプタ(リファレンス周波数検出部101)は、これを採点モード処理プログラム34に出力する。曲シーケンサ31から直接採点モード処理プログラム34に入力しないのは、このノートオン/オフ情報などの制御情報と歌唱周波数データ、リファレンス周波数データとの同期をとるためである。   Since the vocal adapter 19 receives control information such as note-on information, note-off information, and mark data information from the music sequencer 31, the vocal adapter (reference frequency detection unit 101) uses the scoring mode processing program 34. Output to. The reason why the music sequencer 31 does not directly input the scoring mode processing program 34 is to synchronize the control information such as the note on / off information with the singing frequency data and the reference frequency data.

歌唱音声検出部102による歌唱周波数の検出およびリファレンス周波数検出部101によるリファレンス周波数の検出は、30ms毎に同期して実行され、その検出結果が30ms毎に採点モード処理プログラム34に入力される。   The detection of the singing frequency by the singing voice detection unit 102 and the detection of the reference frequency by the reference frequency detection unit 101 are performed in synchronization every 30 ms, and the detection result is input to the scoring mode processing program 34 every 30 ms.

採点モード処理プログラム34は、入力された歌唱周波数およびリファレンス周波数を図3のリストメモリに書き込むとともに、これら周波数データに対してローパスフィルタ(LPF)処理(105、106)を行う。リファレンス周波数に対するLPF処理は、機械的な音高列であるリファレンス(図5(A)参照)の音高変化を滑らかにして人間の歌唱に近づけるための処理である。また、歌唱周波数に対するLPF処理は、ビブラートなどの技巧を除去してフラットな歌唱周波数情報を得るための処理である。   The scoring mode processing program 34 writes the input singing frequency and reference frequency in the list memory of FIG. 3, and performs low-pass filter (LPF) processing (105, 106) on these frequency data. The LPF process for the reference frequency is a process for smoothing the pitch change of a reference (see FIG. 5A), which is a mechanical pitch sequence, and approaching a human song. Further, the LPF processing for the singing frequency is processing for obtaining flat singing frequency information by removing techniques such as vibrato.

図5を参照してローパスフィルタ処理について説明する。図5(A)はリファレンスとして用いられるガイドメロディデータの例を示す図である。リファレンスデータは、音符が連続しているレガート区間であっても正確な拍タイミングに不連続に音高が変化する機械的なデータである。このような不連続なリファレンスに対してLPF処理を行うことにより、同図(B)に示すように、音符と音符の間ではなだらかに音高が変化するようになり、リファレンスを歌唱者の実際の歌唱に近い音高変化のものにすることができる。なお、音符が途切れる休符の区間やノンレガートで歌唱するところなどは、このLPF処理の対象外にする。これにより、音の無い区間のデータによりLPF処理が不自然な動きになってしまうことを防止することができる。   The low-pass filter process will be described with reference to FIG. FIG. 5A shows an example of guide melody data used as a reference. The reference data is mechanical data in which the pitch changes discontinuously at an accurate beat timing even in a legato section in which notes are continuous. By performing LPF processing on such a discontinuous reference, the pitch gradually changes between notes as shown in FIG. It is possible to make the pitch change similar to that of singing. Note that rest sections where notes are interrupted, places where singing with non-legato, etc. are excluded from the LPF processing. As a result, it is possible to prevent the LPF processing from becoming unnatural due to the data of the section without sound.

同図(C)は歌唱音声周波数データの例を示す図である。歌唱音声周波数は、音符(音高)の変わり目でなだらかな音高の移行(いわゆる「しゃくり」)をしているとともに、音の伸ばしの部分では、ビブラートなどの周期的な周波数変化をしている。この歌唱音声周波数データをLPF処理することにより、同図(D)に示すように、しゃくり部分のオーバーシュートやビブラートなどの細かい周波数変化を除去することができ、歌唱しようとしていた周波数を正確に抽出することができるようになる。   FIG. 6C is a diagram showing an example of singing voice frequency data. The singing voice frequency has a gentle transition (so-called “scribbling”) at the transition of notes (pitch), and has a periodic frequency change such as vibrato in the stretched part of the sound. . By performing LPF processing on this singing voice frequency data, it is possible to remove fine frequency changes such as overshoot and vibrato in the squeaky part, as shown in Fig. 4 (D), and accurately extract the frequency that was sung. Will be able to.

なお、マイク17から入力された音声信号には歌唱音声信号のみならず種々のノイズが含まれている。このノイズ成分のレベルが大きい場合、周波数検出部102は、このノイズ成分を歌唱音声信号と見なしてその周波数を検出してしまう場合がある。このようなノイズ成分がLPF処理部106に入力されると、その1サンプルだけでなくその後もずっと誤ったデータが出力されてしまう。そこで、歌唱音声の周波数変化と考えにくい、150セント以上の突然の音高変化があった場合には、そのデータを無視して(直前のサンプルデータをもう一度採用して)LPF処理を行うことにより、ノイズによる悪影響を防止することができる。   The audio signal input from the microphone 17 includes various noises as well as the singing audio signal. When the level of the noise component is large, the frequency detection unit 102 may detect the frequency by regarding the noise component as a singing voice signal. If such a noise component is input to the LPF processing unit 106, not only the one sample but also erroneous data will be output after that. Therefore, if there is a sudden pitch change of 150 cents or more, which is difficult to consider as a frequency change of the singing voice, ignore the data (adopt the previous sample data again) and perform LPF processing. , It can prevent adverse effects due to noise.

歌唱周波数およびリファレンス周波数のデータ列は、30ms毎の離散データであるため、上記の処理を好適に達成するため、歌唱周波数に対するLPF処理部106は、カットオフ周波数5.5Hzの2次フィルタを用い、リファレンス周波数に対するLPF処理部105は、カットオフ周波数5Hzの2次フィルタを用いている。   Since the data sequence of the singing frequency and the reference frequency is discrete data every 30 ms, the LPF processing unit 106 for the singing frequency uses a secondary filter with a cut-off frequency of 5.5 Hz in order to suitably achieve the above processing. The LPF processing unit 105 for the reference frequency uses a secondary filter having a cutoff frequency of 5 Hz.

LPF処理された歌唱周波数(LPF歌唱周波数)およびリファレンス周波数(LPFリファレンス周波数)は、図3のリストメモリに書き込まれる。図4の採点部107は、歌唱周波数とリファレンス周波数とを比較し、その差分(セント値)を算出し、この差分に基づいて各ノート(音符)毎に合格ノート、不合格ノートを判定する。採点部107には、リファレンス周波数検出部101からノートオン情報・ノートオフ情報が入力されるため、その区間に歌唱周波数が、所定(1〜複数)サンプル以上歌唱旋律の音高に合っていた(周波数許容範囲に入っていた)場合には、「合格ノート」であると判定し、歌唱周波数が歌唱旋律の音高に合った回数が上記所定サンプル未満であった場合には「不合格ノート」であると判定する。   The LPF-processed singing frequency (LPF singing frequency) and reference frequency (LPF reference frequency) are written in the list memory of FIG. The scoring unit 107 in FIG. 4 compares the singing frequency with the reference frequency, calculates a difference (cent value), and determines a pass note and a fail note for each note (note) based on the difference. Since the note-on information / note-off information is input from the reference frequency detection unit 101 to the scoring unit 107, the singing frequency matches the pitch of the singing melody for a predetermined (one or more) samples ( If the number of times the singing frequency matches the pitch of the singing melody is less than the above-mentioned predetermined sample, the “failed note” is determined. It is determined that

基本点数は、2種類の方式で算出され、そのうち高い点数の方を採用する。第1の方式は、合格ノート数を全ノート数で除した値に基づいて基本得点を算出する方式であり、第2の方式は、合格ノートをその長さに応じてランク付け(重みづけ)し、合格ノートの重みづけ合計値を全ノート数で除した値に基づいて基本得点を算出する方式である。   The basic score is calculated by two types of methods, and the higher score is adopted. The first method calculates the basic score based on the value obtained by dividing the number of accepted notes by the total number of notes, and the second method ranks (weights) the accepted notes according to their length. The basic score is calculated based on a value obtained by dividing the weighted total value of the accepted notes by the total number of notes.

第1の方式では、合格ノート数を全ノート数で除算して45を掛けた値に50を加算して50〜95点の点数を算出する。このように最低でも50点が出るようにしているのは、カラオケ装置がエンターテイメント装置であることを考慮したためである。また、最高点を95点としたのは、後述の付加ポイントを加算したときに100点満点となるようにするためである。   In the first method, 50 to 95 points are calculated by adding 50 to a value obtained by dividing the number of accepted notes by the total number of notes and multiplying by 45. The reason why 50 points are obtained at the minimum is that the karaoke apparatus is an entertainment apparatus. The reason why the highest score is 95 is that when the additional points described later are added, the maximum score becomes 100 points.

また、第2の方式である重み付け採点では、合格ノート数を各ランク別に集計してそれぞれの重み付け係数を乗算し、この重み付けされた値を合計したものを全ノート数で除算し、この除算値(商)に45を掛けた値に50を加算して50〜95点の点数を算出する。   Also, in the weighting scoring that is the second method, the number of accepted notes is totaled for each rank, multiplied by the respective weighting factors, the sum of the weighted values is divided by the total number of notes, and this divided value 50 is added to the value obtained by multiplying (quotient) by 45 to calculate a score of 50 to 95 points.

図6(A)は、ランク分けと各ランクの重み付けを示す図である。短い音符のほうが歌唱の音程を合わせるのが難しいため、短い音符のほうが大きい重みになるようにしている。この例では10サンプル(300ms)以下の長さの音符をAランクとして1.2の重みを与えるようにしている。また、33サンプル(約1秒)より長い音符は歌唱が容易な長い音符であるとしてCランクとし、0.8の重み付けにしている。その中間の11サンプル〜33サンプルの音符は、通常の音符であるとして、1の重みを与えている。   FIG. 6A is a diagram showing ranking and weighting of each rank. Since shorter notes are more difficult to match the singing pitch, the shorter notes are given greater weight. In this example, a note having a length of 10 samples (300 ms) or less is given as a rank A, and a weight of 1.2 is given. In addition, a note longer than 33 samples (about 1 second) is set to C rank, because it is a long note that can be easily sung, and has a weight of 0.8. The middle 11 to 33 sample notes are given normal weights and given a weight of 1.

また、上記実施形態では、時間の長さに基づいてノートをA/B/Cの3段階にランク分けしているが、ランク分けは3段階に限定されない。また、各ランクの境界線は10サンプルと33サンプルに限定されない。また、各ランクの重み付け係数は、1.2/1.0/0.8に限定されない。   Moreover, in the said embodiment, although the notebook is ranked into three steps of A / B / C based on the length of time, ranking is not limited to three steps. Moreover, the boundary line of each rank is not limited to 10 samples and 33 samples. Moreover, the weighting coefficient of each rank is not limited to 1.2 / 1.0 / 0.8.

また、各ノートを複数段階のランクに分類するのではなく、図6(B)に示すように、それぞれの長さに応じた重み付け係数を与えるようにしてもよい。この変化曲線(直線・折れ線を含む)は、図示のものに限定されない。   Instead of classifying each note into a plurality of ranks, as shown in FIG. 6B, a weighting coefficient corresponding to each length may be given. This change curve (including straight lines and broken lines) is not limited to the illustrated one.

また、上記実施形態では、合格ノートをその長さで重み付けしているが、不合格ノートも重み付けして減点するようにしてもよい。すなわち、上記実施形態では、合格ノートは1.2/1.0/0.8の重み付けで累算され、不合格ノートは一律に0であるが、不合格ノートであっても、短い音符の場合には、0ではなく、0.1〜0.8程度の点数を加算するようにする。また、長い音符が不合格になった場合には、0でなく減点するようにしてもよい。   Moreover, in the said embodiment, although the passing note is weighted with the length, you may make it weight a failure note and weight a point. That is, in the above embodiment, the passing notes are accumulated with a weight of 1.2 / 1.0 / 0.8, and the failing notes are uniformly 0, but even if the failing notes are short notes, In this case, a score of about 0.1 to 0.8 is added instead of 0. Also, when a long note fails, a point may be deducted instead of 0.

次に、この採点モード処理プログラムは、歌唱周波数以外に、歌唱のビブラート、抑揚、声質、タイミング、しゃくりなどの歌唱要素を検出し、これに基づいて付加的なポイントを算出して前記基本得点に加算(減算)したものを最終得点としている。この付加的なポイントの重みは、基本得点の大きさによって異なり、基本得点が高いほどポイントが低く(加点が少なくなる方向に)シフトするようにしている。   Next, in addition to the singing frequency, this scoring mode processing program detects singing elements such as singing vibrato, intonation, voice quality, timing, and screaming, and based on this, calculates additional points to obtain the basic score. The final score is obtained by adding (subtracting). The weight of this additional point varies depending on the size of the basic score, and the higher the basic score, the lower the point (in a direction in which the added points decrease).

以下、各歌唱要素の検出および判定方法について説明する。
図7は、しゃくりの検出方法を説明する図である。このしゃくりの検出には、LPF処理をしていない生の歌唱周波数データ列およびリファレンス周波数データ列を用いる。
Hereinafter, a method for detecting and determining each singing element will be described.
FIG. 7 is a diagram illustrating a method for detecting sneezing. For detection of this squealing, a raw singing frequency data sequence and a reference frequency data sequence not subjected to LPF processing are used.

しゃくりとは、同図の歌唱周波数曲線に示すように上昇音形のときに徐々に滑らかに音高をあげてゆく歌唱技巧である。上昇の開始がほぼ後のノートの開始タイミングと一致しており、歌唱周波数はこの後遅れてその音符のリファレンス周波数に到達する。歌唱周波数の変化曲線がノート開始タイミング付近から徐々に音高が上昇してゆくという条件を満たしているかに基づいて検出し、この条件に適合した歌唱周波数の変化があった場合には、これをしゃくりの歌唱技巧であると判定する。   Shakuri is a singing technique that gradually and smoothly raises the pitch when the rising tone form as shown in the singing frequency curve of FIG. The start of the rise almost coincides with the start timing of the later note, and the singing frequency reaches the reference frequency of the note later. Detected based on whether the singing frequency change curve satisfies the condition that the pitch gradually increases from around the note start timing, and if there is a singing frequency change that meets this condition, Judged as a skill of singing.

このしゃくりの条件を満たしているかを判定するためのルールとして
(1)ノート開始タイミングで歌唱周波数とリファレンス周波数が一定以上離れていること
(2)最終的には歌唱周波数がリファレンス周波数の音程許容範囲内に到達すること
(3)歌唱周波数が滑らかに上昇してゆくこと
図7(A)がこの条件に適合した歌唱音高の変化を示している。ここで、上記3つの条件を判定するために、採点モード処理プログラムにおいては、同図のハッチング部分(禁止エリア)に歌唱周波数がかからないことをチェックしている。すなわち、歌唱周波数が禁止エリアにかからずに合格ノートとなった場合にしゃくり技巧であると判定する。より、厳格に判定する場合には、図示の斜め破線と禁止エリアの間を歌唱周波数曲線が通過するか否かを判定するようにすればよい。
As a rule for judging whether or not the condition of the squealing is satisfied (1) The singing frequency and the reference frequency are separated by a certain distance at the note start timing. (2) Eventually, the singing frequency is within the allowable range of the reference frequency. (3) Singing frequency rises smoothly FIG. 7 (A) shows a change in singing pitch that meets this condition. Here, in order to determine the above three conditions, in the scoring mode processing program, it is checked that the singing frequency is not applied to the hatched portion (prohibited area) in FIG. That is, when the singing frequency does not enter the prohibited area and becomes a passing note, it is determined that the skill is scooping. In the case of more strict determination, it may be determined whether or not the singing frequency curve passes between the oblique broken line and the prohibited area shown in the figure.

また、より高度なしゃくりの技巧を判定する場合には上記(1)〜(3)のルールに加えて、
(4)歌唱周波数が上昇を開始する前に一旦周波数が下降すること
のルールを加える。歌唱周波数がこのような変化をすればよりしゃくりが強調される。この条件を満たした歌唱周波数の変化曲線の例を同図(B)に示す。同図の白抜き矢印の位置で歌唱周波数が一旦下がっており、上記(4)のルールに適合した変化曲線であることがわかる。
In addition to the rules (1) to (3) above, when judging a more advanced skill,
(4) Add a rule that the frequency once decreases before the singing frequency starts increasing. If the singing frequency changes in this way, squealing will be emphasized. An example of the change curve of the singing frequency that satisfies this condition is shown in FIG. It can be seen that the singing frequency is once lowered at the position of the white arrow in the figure, and is a change curve that conforms to the rule (4).

しゃくりが検出されれば、モニタ22に「しゃくり」の歌唱が行われた旨を表示する。カラオケ曲の終了後、曲中で検出されたしゃくりの回数に基づいてしゃくりポイントを算出して基本得点に加算する。   If the screaming is detected, the monitor 22 displays that the screaming “shearing” has been performed. After the end of the karaoke song, the screaming point is calculated based on the number of screaming detected in the song and added to the basic score.

図8は、タイミング(差)の検出方法を説明する図である。また、図9は、タイミング差に基づいてタイミングポイントを算出するためのタイミングポイントテーブルを示す図である。このタイミング差の検出には、通常はLPF処理をしていない歌唱周波数データ列およびリファレンス周波数データ列を用いるが、歌唱周波数についてはLPF処理をしたLPF歌唱周波数データ列を用いてもよい。   FIG. 8 is a diagram for explaining a timing (difference) detection method. FIG. 9 is a diagram illustrating a timing point table for calculating timing points based on the timing difference. For the detection of this timing difference, a singing frequency data sequence and a reference frequency data sequence that are not normally subjected to LPF processing are used, but an LPF singing frequency data sequence subjected to LPF processing may be used for the singing frequency.

図8において、歌唱者があるノート(音符)を歌唱しようとして発声を操作したタイミングが歌唱タイミングであり、歌いだしなどの歌の無い部分から歌唱を開始した場合には、同図(B)に示すように、歌唱周波数検出部102に歌唱音声が入力されて、周波数の検出を開始したタイミングdを歌唱タイミングとする。この歌唱タイミングとリファレンスの発音タイミングRとの時間差がタイミング差である。   In FIG. 8, when the singer operates the utterance while trying to sing a note (note), the singing timing is the singing timing, and when singing is started from a portion where there is no song such as singing, As shown, the singing voice is input to the singing frequency detection unit 102, and the timing d at which the frequency detection is started is set as the singing timing. The time difference between the singing timing and the reference sounding timing R is the timing difference.

一方レガート歌唱などで複数のノートが連続している場合には、同図(A)のように歌唱周波数が発音タイミングRの付近で所定範囲(許容範囲)以内に接近したタイミングaを歌唱タイミングとする。   On the other hand, when a plurality of notes are continuous in legato singing or the like, the timing a when the singing frequency approaches within a predetermined range (allowable range) near the sounding timing R as shown in FIG. To do.

また、歌唱者が前のノートからこのノートに移行しようとし始めたタイミングをとらえて歌唱タイミングとしてもよい。すなわち、同図(A)において、許容範囲内に接近したタイミングaの直前で音高の変化がスタートしたタイミングbや変化の傾きが所定値以上になったタイミングcなどを歌唱タイミングとするようにしてもよい。   Moreover, it is good also as a singing timing catching the timing when the singer started trying to transfer to this note from the previous note. That is, in FIG. 6A, the timing b at which the pitch change starts immediately before the timing a approaching within the allowable range, the timing c at which the change slope becomes a predetermined value or more, and the like are set as the singing timing. May be.

なお、同図(A)は音高の低いノートから高いノートへの変化(上昇)について説明しているが、音高の高いノートから低いノートへの変化(下降)についても上下が反転するのみで同様である。   Note that FIG. 4A describes the change (rise) from a note with a low pitch to a high note, but the top and bottom is only inverted for the change (down) from a note with a high pitch to a low note. The same is true.

また、同図(A)の歌唱タイミングaは遅れ方向であり、歌唱タイミングb,cおよび同図(B)の歌唱タイミングdは進み(突っ込み)方向であるが、タイミングの進み遅れはこれに限定されるものではない。   In addition, the singing timing a in FIG. 9A is a delay direction, and the singing timings b and c and the singing timing d in FIG. Is not to be done.

また、発音タイミングRと歌唱タイミングa,b,cとのタイミング差を検出する範囲は、前のノートおよび後のノート(発音タイミングRで発音するノート)の長さのそれぞれ1/2〜1/3程度までの範囲でよい。もし、それ以上離れたタイミングで歌唱周波数がこの条件に該当しても、これがこのノートの発音のための音高変化であると特定しえないためである。   In addition, the range in which the timing difference between the sound generation timing R and the singing timings a, b, and c is detected is 1/2 to 1/1 each of the length of the previous note and the subsequent note (note generated at the sound generation timing R). A range of up to about 3 is acceptable. This is because even if the singing frequency meets this condition at a timing further away, it cannot be specified that this is a pitch change for the pronunciation of this note.

上記歌唱タイミングの検出方式は、歌唱周波数の変化を監視して歌唱タイミングを検出するものであったが、同図(C)に示す方式は、リファレンスの発音タイミングRをはさむ2つのノート(前のノートおよび後のノート)のリファレンス周波数と歌唱周波数とを相互に時間軸方向に移動させて相互相関を求めてそれが最大の位置を割り出し、その相互相関が最大の位置ともとのデータ位置とのずれ量をタイミング差(e)とする。この方式であれば、音高変化時の波形だけでなく、ノート全体の波形に基づいて歌唱タイミングを割り出すことができる。   The above singing timing detection method detects the singing timing by monitoring the change of the singing frequency. However, the method shown in FIG. The reference frequency and the singing frequency of the note and the subsequent note are moved in the time axis direction to obtain a cross-correlation, which determines the maximum position, and the position of the maximum cross-correlation and the original data position. Let the amount of deviation be the timing difference (e). With this method, the singing timing can be determined based on not only the waveform at the time of pitch change but also the waveform of the entire note.

上記の比較において、単に同じタイミングの歌唱周波数とリファレンス周波数とを比較するのではなく、リファレンス周波数を時間軸上で前後に移動させ、両サンプル列の相互相関が最大になる位置で対応する歌唱音声周波数とリファレンス周波数比較するようにしている。相互相関は、   In the above comparison, instead of simply comparing the singing frequency and the reference frequency at the same timing, the reference frequency is moved back and forth on the time axis, and the corresponding singing voice is at a position where the cross-correlation between both sample sequences is maximum. The frequency is compared with the reference frequency. Cross correlation is

Figure 2007334364
Figure 2007334364

の相互相関関数で求めてもよいが、ずらしたときに対応するサンプル同士の差分をとり、その差分の積算値が最小となる位置を最大相関点とするようにしてもよい。   However, it is also possible to take the difference between samples corresponding to each other when shifted and to set the position where the integrated value of the difference is minimum as the maximum correlation point.

上記の方式でタイミング差が検出されると、このタイミング差でタイミング点テーブルを参照してタイミング点を割り出す。   When the timing difference is detected by the above method, the timing point is determined by referring to the timing point table based on the timing difference.

図9は、タイミングポイントテーブルの例を示す図である。同図(A)は「演歌」に対応したタイミングポイントテーブルの例を示している。演歌の場合はジャストタイミングから遅れ気味の歌唱技巧である「ため」に対応するため、ジャストタイミングから遅れ気味の範囲で大きな+点(加点)が与えられるようになっている。これに対して進み気味(突っ込み気味)の歌唱は焦って聞こえるため、−点(減点)が与えられるようになっている。   FIG. 9 is a diagram illustrating an example of a timing point table. FIG. 4A shows an example of a timing point table corresponding to “enka”. In the case of enka, in order to deal with “song” which is a singing technique that is delayed from just timing, a large + point (additional point) is given within the range of delay from just timing. On the other hand, since a singing song (push-in) is heard in impatience, a minus point (decrease) is given.

一方、同図(B)は「ポップス系」のカラオケ曲対応したタイミング点テーブルの例を示している。ポップスの場合、正確なビートでリズムが刻まれているため、歌唱もジャストタイミングが望まれ、大きく遅れても大きく進んでも−点になる。ジャストタイミングの範囲およびわずかな進みの範囲で+点が与えられる。   On the other hand, FIG. 5B shows an example of a timing point table corresponding to “pops” karaoke songs. In the case of pops, since the rhythm is engraved with an accurate beat, singing is also required to be just timing, and it becomes a point even if it is greatly delayed or greatly advanced. A + point is given in the range of just timing and the range of slight advance.

カラオケ曲が選択されたとき、そのカラオケ曲のジャンルに応じてタイミング点テーブルが選択され、歌唱のノート毎にタイミング点が割り出される。そして、カラオケ曲が終了したとき、全てのタイミング点の平均値を算出し、タイミングポイントとする。   When a karaoke song is selected, a timing point table is selected according to the genre of the karaoke song, and a timing point is determined for each singing note. And when a karaoke song is complete | finished, the average value of all the timing points is calculated, and it is set as a timing point.

図9には、演歌系とポップス系のカラオケ曲向けのタイミング点テーブルのみ示しているが、他の種々のジャンル向けのタイミング点テーブルを設けてもよく、ポップス系のタイミング点テーブルを非演歌系のカラオケ曲全てに適用してもよい。また、タイミング点の算出方式は、タイミング点テーブルに限定されず、関数を用いるなど他の方式によってもよい。   FIG. 9 shows only timing point tables for enka and pop karaoke songs. However, timing point tables for various other genres may be provided. You may apply to all karaoke songs. The timing point calculation method is not limited to the timing point table, and other methods such as a function may be used.

また、この実施形態では、タイミング点テーブルをジャンル別に設けたが、カラオケ曲毎に設けるようにしてもよい。たとえば、カラオケ曲の楽曲データ中にタイミング点テーブルを含めておき、カラオケ曲の配信と一緒に配信されるようにしてもよい。そして、曲別のタイミング点テーブルを有さない旧来の楽曲データの場合には、予め設けてあるジャンル別のタイミング点テーブルを用いるようにすればよい。   In this embodiment, the timing point table is provided for each genre, but may be provided for each karaoke song. For example, a timing point table may be included in the song data of karaoke songs, and delivered together with the delivery of karaoke songs. And in the case of the old music data which does not have the timing point table according to music, the timing point table according to the genre provided beforehand should just be used.

図10は、抑揚の検出方法を説明する図である。抑揚の判定はフレーズ毎に行う。フレーズとは、休符や音切りなどで区切られる歌唱の1区切りの単位である。図10は、1フレーズについて示している。フレーズの前後で歌唱が途切れるため、音量エンベロープはほぼ無音状態になる。音量エンベロープを監視することにより、採点モード処理プログラム34は、フレーズを検出することができる。   FIG. 10 is a diagram illustrating a method for detecting intonation. Judgment is made for each phrase. A phrase is a unit of one segment of a singing segmented by rests or sound cuts. FIG. 10 shows one phrase. Since the singing is interrupted before and after the phrase, the volume envelope is almost silent. By monitoring the volume envelope, the scoring mode processing program 34 can detect a phrase.

まず、同図(A)を参照して、フレーズ内の平均値に基づいて抑揚を判定する方式について説明する。1フレーズ分の音量エンベロープのデータが蓄積されると、まずその平均値Aaを求める。そして、リファレンスのノートオン情報、ノートオフ情報に基づいて各ノート区間を切り分け、各ノート毎の音量平均値A1〜Anを求める。そして、各ノートの平均値A1〜Anのフレーズ全体の平均値Aaとの平均偏差を求める。   First, a method for determining inflection based on an average value in a phrase will be described with reference to FIG. When the volume envelope data for one phrase is accumulated, the average value Aa is first obtained. Then, each note section is divided based on reference note-on information and note-off information, and volume average values A1 to An for each note are obtained. And the average deviation with average value Aa of the whole phrase of average value A1-An of each note is calculated | required.

次に、同図(B)を参照して、フレーズ内のピーク値に基づいて抑揚を判定する方式について説明する。1フレーズ分の音量エンベロープのデータが蓄積されると、まずこのフレーズ内のピーク値Paを求める。そして、リファレンスのノートオン情報、ノートオフ情報に基づいて各ノート区間を切り分け、各ノート毎の音量ピーク値P1〜Pnを求める。そして、各ノートのピーク値P1〜Pnとフレーズ内のピーク値Paとの差の平均値(平均偏差)を求める。   Next, a method for determining inflection based on a peak value in a phrase will be described with reference to FIG. When the volume envelope data for one phrase is accumulated, first, the peak value Pa in the phrase is obtained. Then, each note section is divided based on reference note-on information and note-off information, and volume peak values P1 to Pn for each note are obtained. Then, an average value (average deviation) of differences between the peak values P1 to Pn of each note and the peak value Pa in the phrase is obtained.

そして、カラオケ曲の終了後、全フレーズの平均偏差の平均値を求め、この値に基づいて抑揚ポイントを算出する。   And after completion | finish of a karaoke song, the average value of the average deviation of all the phrases is calculated | required, and an inflection point is calculated based on this value.

なお、抑揚の検出は、LPF処理をしていない生のデータを用いてもよく、LPF処理をしたLPFデータを用いてもよい。   For detection of inflection, raw data that has not been subjected to LPF processing may be used, or LPF data that has been subjected to LPF processing may be used.

また、ビブラートの判定は、LPF処理をしていない生の歌唱周波数データ列を用い、歌唱の周波数変動の周期性を検出する。周期性が検出された場合には、ビブラートありと判定する。ビブラートありが検出されると、その振幅(周波数変動)の大きさでポイントの大きさを決定する。   Vibrato is determined using a raw singing frequency data sequence that has not been subjected to LPF processing, and detecting the periodicity of frequency fluctuations of the singing. When periodicity is detected, it is determined that there is vibrato. When the presence of vibrato is detected, the point size is determined by the magnitude of the amplitude (frequency fluctuation).

また、声質の判定は、入力された歌唱音声波形を基本周波数帯域のバンドパスフィルタ(BPF)および倍音成分のBPFに通し、基本周波数成分の大きさと倍音成分の大きさとを比較する。倍音成分の比率が高いほど(基本周波数成分のレベルに近いほど)声の質がよいとしてポイントを高くする。   The voice quality is determined by passing the input singing voice waveform through a band pass filter (BPF) in the fundamental frequency band and a BPF of the harmonic component, and comparing the magnitude of the fundamental frequency component with the magnitude of the harmonic component. The higher the overtone component ratio (closer to the level of the fundamental frequency component), the better the voice quality, the higher the point.

図11、図12のフローチャートを参照して採点モード処理プログラム34の処理について説明する。
図11は採点モード処理プログラム34の採点処理動作を示すフローチャートである。この動作では30ms毎に入力レジスタをチェックして、歌唱レベルデータ、歌唱周波数サンプルデータ、リファレンス周波数サンプルデータおよび音量レベル値(音量エンベロープのサンプル値)、さらに、ノートオン/オフ情報、マークデータ情報が入力されたか否かを監視している。歌唱レベルデータ、歌唱周波数およびリファレンス周波数が入力されると(s1)、まず歌唱レベルデータをリストメモリ(図3参照)に書き込み(s5)、LPF処理していない生の歌唱周波数データおよびリファレンス周波数データをリストメモリに書き込む(s6)。そして、歌唱周波数データ、リファレンス周波数データの両方に対してLPF処理を実行し(s7)、このLPF処理されたサンプルデータをリストメモリに書き込む(s8)。
Processing of the scoring mode processing program 34 will be described with reference to the flowcharts of FIGS. 11 and 12.
FIG. 11 is a flowchart showing the scoring processing operation of the scoring mode processing program 34. In this operation, the input register is checked every 30 ms, and singing level data, singing frequency sample data, reference frequency sample data and volume level value (volume envelope sample value), note on / off information, and mark data information are stored. It monitors whether it has been input. When the singing level data, singing frequency and reference frequency are input (s1), the singing level data is first written in the list memory (see FIG. 3) (s5), and the raw singing frequency data and reference frequency data not subjected to LPF processing are written. Is written into the list memory (s6). Then, LPF processing is executed on both the singing frequency data and the reference frequency data (s7), and the sample data subjected to the LPF processing is written in the list memory (s8).

ボーカルアダプタ19からノートオン情報が入力された場合には(s2)、これをリストメモリに書き込む(s10)。このノートオン情報が書き込まれた位置が図8のタイミング検出におけるリファレンスの発音タイミングRに相当する。   When note-on information is input from the vocal adapter 19 (s2), it is written in the list memory (s10). The position where the note-on information is written corresponds to the sound generation timing R of the reference in the timing detection of FIG.

ノートオフ情報が送られてきた場合には(s3)、これをリストメモリに書き込み(s11)、リストメモリに蓄積されたLPF歌唱周波数データおよびLPFリファレンス周波数データに基づいて採点対象ノートの合格/不合格を判定する(s12)。この判定は、音程(周波数差)に基づく合否の判定である。さらに、各種採点要素についての採点を実行する(s13〜s15)。s13では、ビブラートを判定する。ビブラートの判定は上述したように、LPF処理をしていない歌唱周波数データ列の周期性を検出し、周期性がある場合にはビブラートありと判定し、その周波数変動の深さに応じてランク付けする処理である。   When note-off information is sent (s3), it is written in the list memory (s11), and the pass / fail of the scoring target note is based on the LPF singing frequency data and the LPF reference frequency data stored in the list memory. A pass is determined (s12). This determination is a pass / fail determination based on the pitch (frequency difference). Further, scoring for various scoring elements is executed (s13 to s15). In s13, vibrato is determined. As described above, the vibrato is detected by detecting the periodicity of the singing frequency data sequence not subjected to the LPF process, and when there is a periodicity, it is determined that there is vibrato, and ranking is performed according to the frequency variation depth. It is processing to do.

s14では、タイミングを判定する。このタイミング判定は、図8に示したように歌唱周波数の変化とリファレンス周波数の変化の時間差を検出し、この時間差で図9のタイミングポイントテーブルを引いてタイミングポイントを割り出す処理である。   In s14, the timing is determined. This timing determination is a process of detecting the time difference between the change of the singing frequency and the change of the reference frequency as shown in FIG. 8, and subtracting the timing point table of FIG. 9 from this time difference to determine the timing point.

s15では、しゃくりの有無を判定する。しゃくりの判定は、歌唱周波数が図7に示す条件を満たす波形で変化するかを判定するものであり、この上記条件を満たす波形で変化した場合にはしゃくりの技巧で歌唱されたと判定してしゃくり回数をカウントアップする。カラオケ曲の終了後にこのしゃくり回数に基づいてしゃくりポイントを決定する。   In s15, the presence / absence of sneezing is determined. The determination of sneezing is to determine whether the singing frequency changes with a waveform that satisfies the conditions shown in FIG. 7. Count up the number of times. After the end of the karaoke song, a scoop point is determined based on the number of scoops.

上記の合格ノート/不合格ノートの判定、および、各種歌唱要素の判定ののち、この合否結果、判定結果を記憶して(s16)、待機ルーチンにもどる。そして、上記の処理をノートオフ毎に繰り返して行い。曲が終了すると(s4)、得点集計処理(s17)を実行する。   After the above pass / fail note determination and various singing element determinations, the pass / fail result and determination result are stored (s16), and the process returns to the standby routine. Then, the above process is repeated for each note-off. When the music ends (s4), the score totaling process (s17) is executed.

図12は得点集計処理を示すフローチャートである。この動作は、上記s17で実行される動作である。まず、全ノート数および合格ノート数を集計し(s30)、合格ノート数を全ノート数で除算した値に45を乗算し50を加算して第1の基本得点を算出する(s31)。次に、合格ノートをノート長のランク付けに基づいて重み付け集計し(s32)、この集計値を全ノート数で除算した値に45を乗算し50を加算して第2の基本得点を算出する(s33)。これら第1、第2の基本得点のうち高得点の方を採用してこの歌唱の基本得点とする(s34)。   FIG. 12 is a flowchart showing the score totaling process. This operation is performed in s17. First, the total number of notes and the number of accepted notes are totaled (s30), the value obtained by dividing the number of accepted notes by the number of all notes is multiplied by 45 and 50 is added to calculate the first basic score (s31). Next, the passing notes are weighted and summed based on the ranking of the note length (s32), and a value obtained by dividing the summed value by the total number of notes is multiplied by 45 and 50 is added to calculate a second basic score. (S33). Of these first and second basic scores, the higher score is adopted as the basic score of this song (s34).

次に、各種歌唱要素の集計を行う。まず、抑揚を判定する(s35)。抑揚の判定は、図10に示すように各ノートの平均値またはピーク値をフレーズの平均値またはピーク値と比較して、偏差を求める処理である。この偏差が大きいほど抑揚が大きいと判断する。そして、全フレーズの偏差の平均値に基づき抑揚をA,B,C,D,Eの5段階にランク付けする。   Next, various singing elements are tabulated. First, inflection is determined (s35). The determination of inflection is processing for obtaining a deviation by comparing the average value or peak value of each note with the average value or peak value of a phrase as shown in FIG. The greater the deviation, the greater the inflection. Then, based on the average value of the deviations of all phrases, the inflections are ranked into five levels A, B, C, D, and E.

そして、このランクと前記基本得点に基づいて図13(A)のポイント算出テーブルを参照し、抑揚ポイントを割り出す(s36)。
このポイント算出テーブルは、基本得点に応じてA,B,C,D,Eの各ランクに対して何点を与えるかを割り出すテーブルである。基本点数が高いほど与える点数が低く設定されており、基本点数が高得点の場合には、低いランク(C,D,E)に対してマイナスポイントが与えられるようになっている。これにより、基本点数が高い歌唱者(上手な歌唱者)の場合には、各歌唱要素も上手くないと加点されないようにしている。
Then, based on the rank and the basic score, an inflection point is determined by referring to the point calculation table of FIG. 13A (s36).
This point calculation table is a table for determining how many points are given to each rank of A, B, C, D, and E according to the basic score. The higher the basic score, the lower the score to be given. When the basic score is high, minus points are given to low ranks (C, D, E). Thereby, in the case of a singer (a good singer) with a high basic score, each singing element is also not good if it is not good.

次に声質を判定する(s37)。カラオケ曲の演奏中に適当な箇所の歌唱音声信号を保存しておき、その歌唱音声信号を用いてこの声質の判定を行う。この判定処理では、歌唱音声信号を基本周波数帯のBPFおよび倍音周波数帯のBPFに通し、倍音成分の大きさに応じて声質をA,B,C,D,Eの5段階にランク付けする。倍音成分が大きいほど上位(A,Bなど)にランクされる。そして、このランクと前記基本得点に基づいて図13(A)のポイント算出テーブルを参照し、声質ポイントを割り出す(s38)。   Next, the voice quality is determined (s37). During the performance of a karaoke song, a singing voice signal at an appropriate location is stored, and the voice quality is determined using the singing voice signal. In this determination process, the singing voice signal is passed through the BPF in the fundamental frequency band and the BPF in the harmonic frequency band, and the voice quality is ranked in five stages of A, B, C, D, and E according to the magnitude of the harmonic component. The higher the harmonic component, the higher the rank (A, B, etc.). Based on this rank and the basic score, a voice quality point is determined by referring to the point calculation table of FIG. 13A (s38).

次に各ノート毎に行ったビブラートの判定結果を集計し、ビブラートをA,B,C,D,Eの5段階にランク付けする(s39)。ランク付けは、たとえば、ビブラート累積時間が長いほど高いランクとするなどの方式で決定する。なお、ビブラートの判定は、図11の処理動作でノート毎に行ってもよい。このランクと前記基本得点に基づいて図13(A)のポイント算出テーブルを参照し、ビブラートポイントを割り出す(s40)。   Next, the results of vibrato determination performed for each note are tabulated, and the vibrato is ranked into five levels of A, B, C, D, and E (s39). For example, the ranking is determined in such a manner that the higher the vibrato accumulated time, the higher the rank. The determination of vibrato may be performed for each note in the processing operation of FIG. Based on this rank and the basic score, a vibrato point is determined by referring to the point calculation table of FIG. 13A (s40).

次にタイミング差の評価を集計し、タイミングをA,B,C,D,Eの5段階にランク付けする(s41)。このランクと前記基本得点に基づいて図13(A)のポイント算出テーブルを参照し、タイミングポイントを割り出す(s42)。   Next, the timing difference evaluations are totalized, and the timing is ranked into five levels of A, B, C, D, and E (s41). Based on this rank and the basic score, the point calculation table of FIG. 13A is referred to determine a timing point (s42).

次にしゃくり回数を集計し、このしゃくりの回数をA,B,C,D,Eの5段階にランク付けする(s43)。このランクと前記基本得点に基づいて図13(B)のポイント算出テーブルを参照し、タイミングポイントを割り出す(s44)。
図13(B)のポイント算出テーブルは、基本得点が低い場合のみプラスポイントを与えるように設定されたテーブルであり、基本得点がたとえば70点以上になるとこの歌唱要素(しゃくり)は得点に考慮されない。
Next, the number of times of sneezing is totaled, and the number of times of sneezing is ranked into five levels of A, B, C, D, and E (s43). Based on this rank and the basic score, the point calculation table in FIG. 13B is referred to, and a timing point is determined (s44).
The point calculation table in FIG. 13B is a table set so as to give a plus point only when the basic score is low, and when the basic score becomes 70 points or more, for example, this singing element (shakuri) is not considered in the score. .

上記処理で算出された各種歌唱要素のポイントを基本得点に加算して合計得点を算出する(s45)。基本得点が95点で歌唱要素のうちしゃくりを除く全てがAランクの場合には、99点となるが、その場合のみしゃくりがAランクであるか否かを判断し、Aランクの場合には合計得点を100点とする。合計得点が100点を超える場合がある採点方法であってもよい。最終的に100点に丸めるようにすればよい。なお、合計得点(最終得点)算出方式はこれに限定されない。   The total score is calculated by adding the points of the various singing elements calculated in the above process to the basic score (s45). If the basic score is 95 points and all of the singing elements excluding screaming are in A rank, it will be 99 points, but only in that case it will be determined whether or not screaming is A rank, and in the case of A rank The total score is 100 points. It may be a scoring method in which the total score may exceed 100 points. Eventually, it may be rounded to 100 points. The total score (final score) calculation method is not limited to this.

s46では、合計得点が60点以上であるかを判定する(s46)。60点以上の場合には、その得点を最終得点としてモニタ22に表示する(s49)。   In s46, it is determined whether the total score is 60 points or more (s46). If the score is 60 or more, the score is displayed on the monitor 22 as the final score (s49).

60点未満の場合には、上記5つの歌唱要素のうち1つでもAランクのものがあるかを検索する(s47)。1つでもAランクのものが存在する場合には、「一発芸」があるとして、合計得点にかかわらずボーナス得点として70点を最終得点と決定する(s48)。Aランクのものがない場合には、合計得点をそのまま最終得点とする。こののち、最終得点をモニタ22に表示する(s49)。   If the score is less than 60, a search is made as to whether any one of the five singing elements has an A rank (s47). If there is at least one A rank, 70 points are determined as the final score as a bonus score regardless of the total score, assuming that there is “one performance” (s48). If there is no A rank, the total score is used as the final score. Thereafter, the final score is displayed on the monitor 22 (s49).

このように採点結果の最終得点にかかわらず一発芸のある歌唱に対して適当な(低くない)得点を与えるのは、このような歌唱は聴衆を沸かせる(うける)ものであるため、それを評価したものである。   In this way, giving a suitable (not low) score for a singing song, regardless of the final score of the scoring result, is because such a song will boil the audience, Is evaluated.

一発芸を評価するしきい値得点は、60点に限定されない。また、ボーナス点として決定する点数も70点に限定されない。   The threshold score for evaluating one performance is not limited to 60 points. Also, the number of points determined as bonus points is not limited to 70 points.

また、この実施形態では、基本歌唱要素として歌唱周波数を採点して基本得点を算出し、各種歌唱要素として、ビブラート、抑揚(音量)、声質、タイミング、しゃくりを判定して付加的なポイントを決定しているが、基本歌唱要素として周波数以外に音量やタイミングを加えてもよい。また、各種歌唱要素は上記のものに限定されない。その一部でもよく、他の要素を加えてもよい。   In this embodiment, the basic score is calculated by scoring the singing frequency as a basic singing element, and additional points are determined by determining vibrato, intonation (volume), voice quality, timing, and sneezing as various singing elements. However, volume and timing may be added in addition to frequency as a basic singing element. Moreover, various singing elements are not limited to the above. Some of them may be added, and other elements may be added.

また、ポイント算出テーブルは、図13に記載したものに限定されない。この実施形態では、ビブラート、抑揚(音量)、声質、タイミングに対して同一のポイント算出テーブルを適用して付加ポイントを算出しているが、各歌唱要素に対してそれぞれ別々のポイント算出テーブルを適用するようにしてもよい。また、ランク分けは5段階に限定されない。さらに、段階的なランク分け(ポイント変化)に限定されず、判定結果に応じて連続して変化するポイント値を与えるようにしてもよい。   Further, the point calculation table is not limited to that shown in FIG. In this embodiment, the same point calculation table is applied to the vibrato, intonation (volume), voice quality, and timing, but the additional points are calculated. However, a separate point calculation table is applied to each singing element. You may make it do. Further, the ranking is not limited to five levels. Furthermore, it is not limited to the stepwise rank division (point change), and a point value that continuously changes according to the determination result may be given.

この発明の実施形態であるカラオケ装置のブロック図The block diagram of the karaoke apparatus which is embodiment of this invention 同カラオケ装置で用いられる曲データの構成例を示す図The figure which shows the structural example of the song data used with the karaoke apparatus 同カラオケ装置のリストメモリの構成を示す図The figure which shows the structure of the list memory of the karaoke apparatus 同カラオケ装置の採点処理の機能ブロックを示す図The figure which shows the functional block of the scoring process of the karaoke apparatus 同カラオケ装置におけるLPF処理を説明する図The figure explaining LPF processing in the karaoke apparatus 同カラオケ装置の音符のランク付けを説明する図The figure explaining ranking of notes of the karaoke device 同カラオケ装置におけるしゃくりの検出方式を説明する図The figure explaining the detection method of sneezing in the karaoke apparatus 同カラオケ装置におけるタイミング差の検出方式を説明する図The figure explaining the detection method of the timing difference in the karaoke apparatus 同カラオケ装置におけるタイミングポイントを算出するテーブルの例を示す図The figure which shows the example of the table which calculates the timing point in the karaoke apparatus 同カラオケ装置における抑揚の検出方式を説明する図The figure explaining the detection method of intonation in the karaoke apparatus 同カラオケ装置の採点処理動作を示すフローチャートFlow chart showing scoring processing operation of the karaoke apparatus 同カラオケ装置の得点集計処理を示すフローチャートThe flowchart which shows the score totaling process of the same karaoke device 同カラオケ装置のポイント算出テーブルの例を示す図The figure which shows the example of the point calculation table of the karaoke apparatus

符号の説明Explanation of symbols

10…CPU、11…ハードディスク、12…RAM、13…音源、14…ミキサ、15…サウンドシステム、16…スピーカ、17…マイク、18…A/Dコンバータ、19…ボーカルアダプタ、20…MPEGデコーダ、21…合成回路、22…モニタ、23…操作部、
30…シーケンサ、31…曲シーケンサ、32…歌詞シーケンサ、32a…文字パターン作成プログラム、33…背景映像再生プログラム、34…採点モード処理プログラム、 35…操作入力処理プログラム、
40…曲データ記憶エリア、41…背景映像記憶エリア、43…採点ログ、
101…リファレンス周波数検出部、102…歌唱周波数検出部、105、106…ローパスフィルタ処理部、107…採点部、108…エンベロープ検出部
DESCRIPTION OF SYMBOLS 10 ... CPU, 11 ... Hard disk, 12 ... RAM, 13 ... Sound source, 14 ... Mixer, 15 ... Sound system, 16 ... Speaker, 17 ... Microphone, 18 ... A / D converter, 19 ... Vocal adapter, 20 ... MPEG decoder, 21 ... Synthesis circuit, 22 ... Monitor, 23 ... Operation part,
30 ... Sequencer, 31 ... Song sequencer, 32 ... Lyric sequencer, 32a ... Character pattern creation program, 33 ... Background video playback program, 34 ... Scoring mode processing program, 35 ... Operation input processing program,
40 ... song data storage area, 41 ... background video storage area, 43 ... scoring log,
DESCRIPTION OF SYMBOLS 101 ... Reference frequency detection part, 102 ... Singing frequency detection part, 105, 106 ... Low pass filter process part, 107 ... Scoring part, 108 ... Envelope detection part

Claims (8)

カラオケ曲を演奏する演奏手段と、歌唱音声を入力する歌唱入力手段と、入力された歌唱音声を採点する採点手段と、を備えたカラオケ装置であって、A karaoke apparatus comprising performance means for playing a karaoke song, singing input means for inputting singing voice, and scoring means for scoring the input singing voice,
前記採点手段は、The scoring means is
(1)音符の開始タイミングで歌唱周波数とリファレンス周波数が一定以上離れていること(1) The singing frequency and the reference frequency are more than a certain distance at the note start timing.
(2)最終的には歌唱周波数がリファレンス周波数の音程許容範囲内に到達すること(2) Ultimately, the singing frequency must be within the allowable range of the reference frequency.
(3)歌唱周波数が滑らかに上昇してゆくこと(3) The singing frequency should rise smoothly
を含むルールに適合しているか否かに基づき、歌唱旋律が上昇音形のときに徐々に滑らかに音高をあげてゆく歌唱技巧であるしゃくりの技巧で歌唱されたか否かを採点するカラオケ装置。  A karaoke device that scores whether or not the song is sung with the skill of screaming, which is a singing skill that gradually raises the pitch when the melody is in the rising tone form, based on whether or not it conforms to the rules including .
前記採点手段は、さらに、The scoring means further includes
(4)歌唱周波数が上昇を開始する前に一点周波数が下降すること(4) The single point frequency drops before the singing frequency starts to rise.
のルールに適合しているか否かに基づき、前記しゃくりの技巧で歌唱されたか否かを採点する請求項1に記載のカラオケ装置。The karaoke apparatus according to claim 1, wherein the karaoke apparatus scores whether or not the song is sung with the skill of the shawl based on whether or not the rule is satisfied.
カラオケ曲を演奏する演奏手段と、
歌唱音声を入力する歌唱入力手段と、
入力された歌唱音声の周波数を検出する歌唱周波数検出手段と、
技巧的歌唱要素を採点するためのルールを記憶する記憶手段と、
入力された歌唱音声を採点する採点手段と、
を備えたカラオケ装置であって、
前記演奏手段は、楽曲データに基づいてカラオケ曲の楽音信号を形成するとともに、このカラオケ曲の楽音信号に同期したリファレンス周波数を出力し、
前記採点手段は、
前記歌唱音声の周波数を前記リファレンス周波数と比較することによって採点し、基本得点を算出する周波数採点手段と、
前記歌唱音声の技巧的な歌唱要素を前記ルールを用いて採点して付加ポイントを算出する歌唱要素採点手段と、
前記基本得点に前記付加ポイントを加算して最終得点を求める最終得点算出手段と、
を備えていることを特徴とするカラオケ装置。
A performance means for performing karaoke songs;
Singing input means for inputting singing voice;
Singing frequency detection means for detecting the frequency of the input singing voice;
Storage means for storing rules for scoring technical singing elements;
Scoring means for scoring the input singing voice;
A karaoke device equipped with
The performance means forms a musical sound signal of the karaoke song based on the music data, and outputs a reference frequency synchronized with the musical sound signal of the karaoke song,
The scoring means is
Frequency scoring means for scoring by comparing the frequency of the singing voice with the reference frequency and calculating a basic score;
Singing element scoring means for scoring technical singing elements of the singing voice using the rules and calculating additional points;
A final score calculating means for obtaining a final score by adding the additional points to the basic score;
A karaoke apparatus comprising:
前記周波数採点手段は、前記歌唱音声を音符ごとに採点し、この音符ごとの採点結果を集計して基本得点を算出する請求項3に記載のカラオケ装置。   The karaoke apparatus according to claim 3, wherein the frequency scoring unit scores the singing voice for each note, and calculates a basic score by totaling the scoring results for each note. 前記周波数採点手段は、前記歌唱周波数検出手段が検出した歌唱音声の周波数を低域ろ波したものを用いて採点し、
前記歌唱要素採点手段は、前記歌唱周波数検出手段が検出した歌唱音声の周波数をそのまま用いて採点する
請求項3または請求項4に記載のカラオケ装置
The frequency scoring means is scored by using a low-pass filtered frequency of the singing voice detected by the singing frequency detecting means,
The singing element scoring means scores using the frequency of the singing voice detected by the singing frequency detecting means as it is.
The karaoke apparatus of Claim 3 or Claim 4 .
前記歌唱要素採点手段は、前記技巧的な歌唱要素として、
歌唱の周期的な周波数変動であるビブラート、
歌唱のフレーズ内での音量の変動である抑揚、
歌唱の音質、
各音符の歌いだしタイミング、
音高の移行波形であるしゃくり、
の1または複数の歌唱要素を採点する請求項3乃至請求項5のいずれかに記載のカラオケ装置。
The singing element scoring means, as the technical singing element,
Vibrato, which is the periodic frequency variation of the singing,
Inflection, which is the variation in volume within a singing phrase
Singing sound quality,
Singing timing of each note,
Scribbling, which is the transition waveform of the pitch,
The karaoke apparatus according to any one of claims 3 to 5, wherein one or more singing elements are scored.
前記歌唱要素採点手段は、The singing element scoring means is:
(1)音符の開始タイミングで歌唱周波数とリファレンス周波数が一定以上離れていること(1) The singing frequency and the reference frequency are more than a certain distance at the note start timing.
(2)最終的には歌唱周波数がリファレンス周波数の音程許容範囲内に到達すること(2) Ultimately, the singing frequency must be within the allowable range of the reference frequency.
(3)歌唱周波数が滑らかに上昇してゆくこと(3) The singing frequency should rise smoothly
を含むルールに適合しているか否かに基づき、歌唱旋律が上昇音形のときに徐々に滑らかに音高をあげてゆく歌唱技巧であるしゃくりの技巧で歌唱されたか否かを採点する  Whether or not the song is sung with the skill of screaming, which is a singing skill that gradually raises the pitch when the singing melody is in a rising tone form, based on whether or not it conforms to the rules including
請求項3乃至5のいずれかに記載のカラオケ装置。  The karaoke apparatus according to any one of claims 3 to 5.
前記歌唱要素採点手段は、さらに、The singing element scoring means further includes:
(4)歌唱周波数が上昇を開始する前に一点周波数が下降すること(4) The single point frequency drops before the singing frequency starts to rise.
のルールに適合しているか否かに基づき、前記しゃくりの技巧で歌唱されたか否かを採点する請求項7に記載のカラオケ装置。8. The karaoke apparatus according to claim 7, wherein the karaoke apparatus scores whether or not the song is sung based on whether or not the rule is satisfied.
JP2007204778A 2007-08-06 2007-08-06 Karaoke machine Pending JP2007334364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007204778A JP2007334364A (en) 2007-08-06 2007-08-06 Karaoke machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007204778A JP2007334364A (en) 2007-08-06 2007-08-06 Karaoke machine

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003342481A Division JP4222919B2 (en) 2003-09-30 2003-09-30 Karaoke equipment

Publications (1)

Publication Number Publication Date
JP2007334364A true JP2007334364A (en) 2007-12-27

Family

ID=38933827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007204778A Pending JP2007334364A (en) 2007-08-06 2007-08-06 Karaoke machine

Country Status (1)

Country Link
JP (1) JP2007334364A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098181A2 (en) * 2008-02-06 2009-08-13 Universitat Pompeu Fabra Audio recording analysis and rating
JP2010085664A (en) * 2008-09-30 2010-04-15 Brother Ind Ltd Following performance evaluation system, karaoke system, and program
JP2010217382A (en) * 2009-03-16 2010-09-30 Brother Ind Ltd Following performance evaluation system, karaoke system, and program
JP2012173721A (en) * 2011-02-24 2012-09-10 Yamaha Corp Singing voice evaluation device
WO2013157602A1 (en) * 2012-04-18 2013-10-24 ヤマハ株式会社 Performance evaluation device, karaoke device, and server device
JP2014191192A (en) * 2013-03-27 2014-10-06 Brother Ind Ltd Reference data creation device, reference data creation system, and performance terminal device
JP2016075753A (en) * 2014-10-03 2016-05-12 株式会社第一興商 Karaoke scoring system performing scoring by comparing pitch difference of reference and pitch difference of singing voice

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098181A2 (en) * 2008-02-06 2009-08-13 Universitat Pompeu Fabra Audio recording analysis and rating
WO2009098181A3 (en) * 2008-02-06 2009-10-15 Universitat Pompeu Fabra Audio recording analysis and rating
JP2010085664A (en) * 2008-09-30 2010-04-15 Brother Ind Ltd Following performance evaluation system, karaoke system, and program
JP2010217382A (en) * 2009-03-16 2010-09-30 Brother Ind Ltd Following performance evaluation system, karaoke system, and program
JP2012173721A (en) * 2011-02-24 2012-09-10 Yamaha Corp Singing voice evaluation device
WO2013157602A1 (en) * 2012-04-18 2013-10-24 ヤマハ株式会社 Performance evaluation device, karaoke device, and server device
JP2013222140A (en) * 2012-04-18 2013-10-28 Yamaha Corp Performance evaluation device, karaoke device, and server device
CN104170006A (en) * 2012-04-18 2014-11-26 雅马哈株式会社 Performance evaluation device, karaoke device, and server device
JP2014191192A (en) * 2013-03-27 2014-10-06 Brother Ind Ltd Reference data creation device, reference data creation system, and performance terminal device
JP2016075753A (en) * 2014-10-03 2016-05-12 株式会社第一興商 Karaoke scoring system performing scoring by comparing pitch difference of reference and pitch difference of singing voice

Similar Documents

Publication Publication Date Title
US8027631B2 (en) Song practice support device
JP4212446B2 (en) Karaoke equipment
JP2007334364A (en) Karaoke machine
JP4163584B2 (en) Karaoke equipment
JP2008015214A (en) Singing skill evaluation method and karaoke machine
JP3996565B2 (en) Karaoke equipment
JP4222919B2 (en) Karaoke equipment
JP4204941B2 (en) Karaoke equipment
JP4204940B2 (en) Karaoke equipment
JP2008268370A (en) Vibratos detecting device, vibratos detecting method and program
JP4222915B2 (en) Singing voice evaluation device, karaoke scoring device and programs thereof
JP4865607B2 (en) Karaoke apparatus, singing evaluation method and program
JP4048249B2 (en) Karaoke equipment
JP4209751B2 (en) Karaoke equipment
JP4271667B2 (en) Karaoke scoring system for scoring duet synchronization
JP2005107332A (en) Karaoke machine
JP4159961B2 (en) Karaoke equipment
JP5034642B2 (en) Karaoke equipment
JP4038471B2 (en) Singing ability examination entry system
JP5416396B2 (en) Singing evaluation device and program
JP2006259401A (en) Karaoke machine
JP4910855B2 (en) Reference data editing device, fist evaluation device, reference data editing method, fist evaluation method, and program
JP6144593B2 (en) Singing scoring system
JP5186793B2 (en) Karaoke equipment
JP4945289B2 (en) Karaoke equipment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090728