JP2009104097A - Scoring device and program - Google Patents

Scoring device and program Download PDF

Info

Publication number
JP2009104097A
JP2009104097A JP2008006141A JP2008006141A JP2009104097A JP 2009104097 A JP2009104097 A JP 2009104097A JP 2008006141 A JP2008006141 A JP 2008006141A JP 2008006141 A JP2008006141 A JP 2008006141A JP 2009104097 A JP2009104097 A JP 2009104097A
Authority
JP
Japan
Prior art keywords
scoring
unit
note
tempo
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008006141A
Other languages
Japanese (ja)
Other versions
JP5286793B2 (en
Inventor
Tatsuya Terajima
辰弥 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008006141A priority Critical patent/JP5286793B2/en
Publication of JP2009104097A publication Critical patent/JP2009104097A/en
Application granted granted Critical
Publication of JP5286793B2 publication Critical patent/JP5286793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology capable of performing fair scoring, when singing (or performance) is scored. <P>SOLUTION: Singing voice of a singer is collected by a microphone 15, and converted to an audio signal. A control section 11 of a Karaoke device 1 detects a pitch from the audio signal, and generates a singing pitch data SP. The control section 11 compares the singing pitch data SP with a reference pitch data RP, and scores singing according to difference of both. At this time, the control section 11 corrects a score result according to tempo control information so that scoring standard may become severe, as the tempo gets slower, when the singer changes the tempo of a music piece by using an operation section 14. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、歌唱(又は演奏)を評価する技術に関する。   The present invention relates to a technique for evaluating singing (or performance).

カラオケ装置においては、歌唱者の歌唱の巧拙を採点するための方法が種々提案されている。例えば、特許文献1においては、歌唱とそのお手本となるリファレンスを比較するにあたって、歌唱のタイミングとリファレンスのタイミングがずれている場合には、歌唱音声データとリファレンスデータを時間軸方向にずらして相互相関を求め、相互相関の最も高い位置で各音符について採点する方法が提案されている。
特開2005−107330号公報
In a karaoke apparatus, various methods for scoring the skill of a singer's singing have been proposed. For example, in Patent Document 1, when comparing the singing and the reference that is a model, if the timing of the singing and the timing of the reference are shifted, the singing voice data and the reference data are shifted in the time axis direction to cross-correlate. And a method of scoring each note at the position with the highest cross-correlation has been proposed.
JP 2005-107330 A

ところで、テンポの速い楽曲を歌唱する場合には、ひとつひとつのノートの時間長が短いため、テンポが遅い楽曲よりも音程を合わせるのが困難である場合が多い。そこで、テンポコンを操作して楽曲をゆっくり再生すると、ひとつひとつのノートの時間長が長くなり音程を合わせるのが容易になる。そのため、テンポを遅くして歌唱した場合のほうが速いテンポのまま歌唱した場合よりも高得点がとれる場合が多く、同じ楽曲を歌唱した場合であっても、テンポの遅速によって採点結果に不公平が生じる場合があった。また、異なる楽曲を歌唱する場合においても、テンポの遅い楽曲のほうがテンポの速い楽曲よりも歌唱が容易であり高得点がでやすいため、楽曲によって採点結果に不公平が生じる場合があった。これは、楽器の演奏についても同様である。
本発明は上述した背景の下になされたものであり、歌唱(又は演奏)の採点において、従来と比較してより公平な採点を行うことのできる技術を提供することを目的とする。
By the way, when singing a song with a fast tempo, the time length of each note is short, so it is often more difficult to match the pitch than a song with a slow tempo. Therefore, if the music is played slowly by operating the tempo control, the time length of each note becomes longer and it becomes easier to adjust the pitch. Therefore, when singing at a slower tempo, the score is often higher than when singing at a faster tempo. There was a case. Even when different songs are sung, songs with a slower tempo are easier to sing and have a higher score than songs with a faster tempo, and therefore, the grading result may be unfair depending on the song. The same applies to the performance of musical instruments.
The present invention has been made under the above-described background, and an object of the present invention is to provide a technique capable of performing a more fair scoring in the singing (or performance) scoring than in the past.

上記課題を解決するため、本発明の好適な態様である採点装置は、楽曲の模範となる音を表すリファレンスデータを記憶する記憶手段と、前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、前記楽曲のテンポを表すテンポ情報を取得する取得手段と、収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを比較し、両者の差分に応じて採点を行う採点手段であって、前記取得手段により取得されたテンポ情報の示すテンポが遅いほど採点基準が厳しくなるように採点を行う採点手段と、前記採点手段による採点結果を示すデータを出力する出力手段とを具備することを特徴とする。   In order to solve the above-described problems, a scoring apparatus according to a preferred aspect of the present invention includes a storage unit that stores reference data representing a sound serving as a model of music, and a reading unit that reads the reference data stored in the storage unit. The acquisition means for acquiring tempo information representing the tempo of the music, the audio signal supplied from the sound collection means and the reference data read by the reading means are compared, and scoring is performed according to the difference between the two. Scoring means, scoring means for scoring so that the scoring criteria become stricter as the tempo indicated by the tempo information acquired by the acquisition means becomes slower; and output means for outputting data indicating the scoring result by the scoring means; It is characterized by comprising.

また、本発明の好適な態様である採点装置は、楽曲の模範となる音をノートの列で表すリファレンスデータを記憶する記憶手段と、前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを、前記ノート毎に比較し、両者の差分に応じて前記ノート毎に採点を行う採点手段であって、前記ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行う採点手段と、前記採点手段による採点結果を示すデータを出力する出力手段とを具備することを特徴とする。   Further, the scoring device according to a preferred aspect of the present invention includes a storage unit that stores reference data that represents a sound as an example of a music in a string of notes, a reading unit that reads the reference data stored in the storage unit, An audio signal supplied from a sound collection means and reference data read by the reading means are compared for each note, and scoring means for scoring for each note according to the difference between the two, It comprises scoring means for scoring each note so that the scoring standard becomes stricter as the note length is longer, and output means for outputting data indicating the scoring result of the scoring means.

上述の態様において、前記記憶手段は、前記楽曲の模範となる音をノートの列で表すリファレンスデータを記憶し、前記採点手段は、前記収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを、前記ノート毎に比較し、両者の差分に応じて採点を行う採点手段であって、前記取得手段により取得されたテンポ情報の示すテンポが遅いほど採点基準が厳しくなるとともに、前記ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行ってもよい。   In the above-described aspect, the storage means stores reference data that represents a model sound of the music in a string of notes, and the scoring means reads the audio signal supplied from the sound collection means and the reading means. A scoring unit that compares the extracted reference data for each note and performs scoring according to the difference between the notes, and the tempo indicated by the tempo information acquired by the acquiring unit is slower, so that the scoring standard becomes stricter At the same time, scoring may be performed for each note so that the longer the note length of the note, the stricter the scoring criteria.

また、上述の態様において、前記記憶手段は、前記楽曲の模範となる音を表すリファレンスデータと該楽曲のテンポを表すテンポ情報とを対応付けて記憶し、前記取得手段は、前記読出手段により読み出されたリファレンスデータに対応するテンポ情報を前記記憶手段から読み出してもよい。
また、上述の態様において、前記取得手段は、利用者によって操作される操作手段から出力される操作信号に応じて前記テンポ情報を取得してもよい。
In the above-described aspect, the storage unit stores reference data representing a sound serving as an example of the music and tempo information representing the tempo of the music in association with each other, and the acquisition unit reads by the reading unit. Tempo information corresponding to the output reference data may be read from the storage means.
In the above-described aspect, the acquisition unit may acquire the tempo information according to an operation signal output from an operation unit operated by a user.

また、上述の態様において、前記採点手段は、前記オーディオ信号と前記リファレンスデータとを前記ノート毎に比較し、両者の差分に応じて前記ノート毎に採点を行うとともに、前記ノート毎の採点結果を集計して総合採点を行ってもよい。   In the above aspect, the scoring means compares the audio signal and the reference data for each note, performs scoring for each note according to the difference between the two, and gives a scoring result for each note. Total scoring may be performed.

本発明によれば、歌唱(又は演奏)の採点において、従来と比較してより公平な採点を行うことができる。   According to the present invention, in singing (or performance) scoring, it is possible to perform scoring more equitably than in the past.

<A:構成>
図1は、この発明の一実施形態であるカラオケ装置1のハードウェア構成を示すブロック図である。図において、制御部11は、CPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)を備え、ROM又は記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、バスBUSを介してカラオケ装置1の各部を制御する。記憶部12は、制御部11によって実行されるコンピュータプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。表示部13は、液晶パネルを備え、制御部11による制御の下に各種の画像を表示する。操作部14は、カラオケ装置1の利用者により操作される操作手段であり、カラオケ装置1の利用者によって操作された内容に応じた信号を制御部11に出力する。歌唱者は、操作部14を操作することによって、楽曲のテンポを変更することができる。制御部11は、操作部14から出力される操作信号に応じて、テンポの変更内容を表すテンポコン情報を取得し、取得したテンポコン情報に基づいて楽曲のテンポを変更する。
<A: Configuration>
FIG. 1 is a block diagram showing a hardware configuration of a karaoke apparatus 1 according to an embodiment of the present invention. In the figure, the control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and reads and executes a computer program stored in the ROM or the storage unit 12. Thus, each part of the karaoke apparatus 1 is controlled via the bus BUS. The storage unit 12 is a storage unit for storing a computer program executed by the control unit 11 and data used at the time of execution, and is, for example, a hard disk device. The display unit 13 includes a liquid crystal panel and displays various images under the control of the control unit 11. The operation unit 14 is an operation unit that is operated by the user of the karaoke apparatus 1, and outputs a signal corresponding to the content operated by the user of the karaoke apparatus 1 to the control unit 11. The singer can change the tempo of the music by operating the operation unit 14. The control unit 11 acquires tempo control information indicating the tempo change content in accordance with the operation signal output from the operation unit 14, and changes the tempo of the music based on the acquired tempo control information.

マイクロホン15は、収音し、収音した音声を表すオーディオ信号(アナログ信号)を出力する収音手段である。音声処理部16は、マイクロホン15が出力するオーディオ信号(アナログ信号)をデジタルデータに変換する。また、音声処理部16は、デジタルデータをアナログ信号に変換してスピーカ17に出力する。スピーカ17は、音声処理部16でデジタルデータからアナログ信号に変換され出力されるオーディオ信号に応じた強度で放音する放音手段である。   The microphone 15 is a sound collecting unit that collects sound and outputs an audio signal (analog signal) representing the collected sound. The audio processing unit 16 converts an audio signal (analog signal) output from the microphone 15 into digital data. The audio processing unit 16 converts the digital data into an analog signal and outputs the analog signal to the speaker 17. The speaker 17 is a sound emitting unit that emits sound with an intensity corresponding to an audio signal that is converted from digital data to an analog signal and output by the sound processing unit 16.

なお、この実施形態では、マイクロホン15とスピーカ17とがカラオケ装置1に含まれている場合について説明するが、音声処理部16に入力端子及び出力端子を設け、オーディオケーブルを介してその入力端子に外部マイクロホンを接続する構成としても良く、同様に、オーディオケーブルを介してその出力端子に外部スピーカを接続するとしても良い。また、この実施形態では、マイクロホン15から音声処理部16へ入力されるオーディオ信号及び音声処理部16からスピーカ17へ出力されるオーディオ信号がアナログオーディオ信号である場合について説明するが、デジタルオーディオデータを入出力するようにしても良い。このような場合には、音声処理部16にてA/D変換やD/A変換を行う必要はない。表示部13についても同様であり、外部出力端子を設け、外部モニタを接
続する構成としてもよい。
In this embodiment, the case where the microphone 15 and the speaker 17 are included in the karaoke apparatus 1 will be described. However, the audio processing unit 16 is provided with an input terminal and an output terminal, and the input terminal is connected to the input terminal via an audio cable. An external microphone may be connected, and similarly, an external speaker may be connected to the output terminal via an audio cable. In this embodiment, the audio signal input from the microphone 15 to the audio processing unit 16 and the audio signal output from the audio processing unit 16 to the speaker 17 are analog audio signals. You may make it input / output. In such a case, the audio processing unit 16 does not need to perform A / D conversion or D / A conversion. The same applies to the display unit 13, and an external output terminal may be provided to connect an external monitor.

カラオケ装置1の記憶部12は、図1に示すように、楽曲データ記憶領域121と、背景画データ記憶領域122とを有している。楽曲データ記憶領域121には、楽曲の伴奏音や歌詞を表す楽曲データが記憶されている。背景画データ記憶領域122には、カラオケ伴奏時に背景として表示される動画像を表す背景画データが記憶されている。   As shown in FIG. 1, the storage unit 12 of the karaoke apparatus 1 includes a music data storage area 121 and a background image data storage area 122. The music data storage area 121 stores music data representing accompaniment sounds and lyrics of music. The background image data storage area 122 stores background image data representing a moving image displayed as a background at the time of karaoke accompaniment.

ここで、楽曲データ記憶領域121に記憶された楽曲データの内容の一例について説明する。楽曲データは、図2に示すように、ヘッダと複数のトラックとを有しており、複数のトラックには、利用者が歌唱すべき旋律(ピッチ)の内容を表すリファレンスデータが記述されたリファレンスデータトラック、カラオケ演奏音の内容を表す演奏データが記述された演奏トラック、歌詞の内容を表す歌詞データが記述された歌詞トラックがある。また、ヘッダ部分には、図2に示すように楽曲を特定する曲番号データ、楽曲の曲名を示す曲名データ、ジャンルを示すジャンルデータ、楽曲の演奏時間を示す演奏時間データ、楽曲のデフォルトのテンポを示すテンポデータ(以下「楽曲テンポ情報」という)等が含まれている。以上の楽曲データは、MIDIフォーマットに従って記述されている。
なお、以下の説明においては、説明の便宜上、「テンポコン情報」と「楽曲テンポ情報」とを各々区別する必要がない場合には、これらを「テンポ情報」と称して説明する。
Here, an example of the contents of the music data stored in the music data storage area 121 will be described. As shown in FIG. 2, the music data has a header and a plurality of tracks. Reference data in which reference data representing the content of a melody (pitch) to be sung by the user is described in the plurality of tracks. There are a data track, a performance track describing performance data representing the contents of karaoke performance sounds, and a lyrics track describing lyrics data representing the contents of lyrics. In the header portion, as shown in FIG. 2, song number data for specifying a song, song name data showing the song title, genre data showing the genre, performance time data showing the performance time of the song, and the default tempo of the song Tempo data (hereinafter referred to as “music tempo information”) and the like. The above music data is described according to the MIDI format.
In the following description, for convenience of explanation, when there is no need to distinguish between “tempo control information” and “music tempo information”, these will be referred to as “tempo information”.

次に、リファレンスデータトラックに記述されているリファレンスデータの具体例について、図3を参照しつつ説明する。リファレンスデータは、模範となる音をノートの列で表すデータである。図3は行と列のマトリックスになっているので、まず、列について説明する。第1列のデルタタイムは、イベントとイベントとの時間間隔を示しており、テンポクロックの数で表される。デルタタイムが「0」の場合は、直前のイベントと同時に実行される。第2列には演奏データの各イベントが持つメッセージの内容が記述されている。このメッセージには、発音イベントを示すノートオンメッセージ(NoteOn)や消音イベントを示すノートオフメッセージ(NoteOff)の他、コントロールチェンジメッセージ等が含まれる。なお、図3に示す例では、コントロールチェンジメッセージは含まれていない。   Next, a specific example of reference data described in the reference data track will be described with reference to FIG. Reference data is data that represents an exemplary sound in a row of notes. Since FIG. 3 is a matrix of rows and columns, first the columns will be described. The delta time in the first column indicates the time interval between events, and is represented by the number of tempo clocks. When the delta time is “0”, it is executed simultaneously with the immediately preceding event. In the second column, the contents of messages of each event of the performance data are described. This message includes a control change message in addition to a note-on message (NoteOn) indicating a sounding event and a note-off message (NoteOff) indicating a mute event. In the example shown in FIG. 3, the control change message is not included.

第3列にはチャネルの番号が記述されている。ここでは、説明の簡略のためリファレンスデータトラックのチャンネル番号を「1」としている。
第4列には、ノートナンバ(NoteNum)あるいはコントロールナンバ(CtrlNum)が記述されるが、どちらが記述されるかはメッセージの内容により異なる。例えば、ノートオンメッセージ又はノートオフメッセージであれば、ここには音階を表すノートナンバが記述され、またコントロールチェンジメッセージであればその種類を示すコントロールナンバが記述されている。
第5列にはMIDIメッセージの具体的な値(データ)が記述されている。例えばノートオンメッセージであれば、ここには音の強さを表すベロシティの値が記述され、ノートオフメッセージであれば、音を消す速さを表すベロシティの値が記述され、またコントロールチェンジメッセージであればコントロールナンバに応じたパラメータの値が記述されている。
The third column describes channel numbers. Here, for simplicity of explanation, the channel number of the reference data track is “1”.
In the fourth column, a note number (NoteNum) or a control number (CtrlNum) is described. Which is described depends on the content of the message. For example, in the case of a note-on message or a note-off message, a note number indicating a musical scale is described here, and in the case of a control change message, a control number indicating its type is described.
The fifth column describes specific values (data) of the MIDI message. For example, in the case of a note-on message, the velocity value indicating the sound intensity is described here, and in the case of a note-off message, the velocity value indicating the speed at which the sound is turned off is described. If there is, the value of the parameter corresponding to the control number is described.

次に、図3に示す各行は、歌唱すべきメロディの各音符の属性を示す楽音パラメータとなっており、ノートオンイベント、ノートオフイベントで構成される。
図3に示す例では、デルタタイム480の長さを4分音符の長さとしている。この場合、第1行、第2行のイベント処理によりC4音が4分音符の長さにわたって発音されることが示され、第3行、第4行のイベント処理によりG4音が4分音符の長さにわたって発音されることが示される。そして、第5行、第6行の処理によりF4音が2分音符の長さにわたって発音されることが示される。
Next, each row shown in FIG. 3 is a musical sound parameter indicating the attribute of each note of the melody to be sung, and is composed of a note-on event and a note-off event.
In the example shown in FIG. 3, the length of the delta time 480 is the length of a quarter note. In this case, it is indicated that the C4 sound is generated over the length of the quarter note by the event processing of the first row and the second row, and the G4 sound is changed to the quarter note by the event processing of the third row and the fourth row. It is shown to be pronounced over length. Then, it is shown that the F4 sound is pronounced over the length of the half note by the processing of the fifth and sixth lines.

利用者が楽曲指定操作を行うと、曲番号データを基にして、指定された楽曲データが楽曲データ記憶領域121から読み出され、RAMに転送される。制御部11がRAM内の楽曲データを順次読み出して処理することで楽曲の演奏が進行する。このとき、リファレンスデータも楽曲の進行と同期して読み出され、制御部11はリファレンスデータのノートとベロシティに応じてリファレンスピッチデータRPを生成する。   When the user performs a song designation operation, the designated song data is read from the song data storage area 121 based on the song number data and transferred to the RAM. The controller 11 sequentially reads and processes the music data in the RAM, so that the music performance progresses. At this time, the reference data is also read out in synchronization with the progress of the music, and the control unit 11 generates reference pitch data RP according to the note and velocity of the reference data.

一方、マイクロホン15に入力された歌唱者の音声は、歌唱音声信号となり、アンプ(図示略)を介してスピーカ17により出力されるとともに、音声処理部16に入力される。音声処理部16がこの歌唱音声信号S1をA/D変換した後、制御部11は、歌唱音声のピッチを抽出し、歌唱ピッチデータSPとして出力する。この場合、歌唱音声のピッチの抽出処理はおよそ11.6msごとに行われるようになっている。   On the other hand, the voice of the singer input to the microphone 15 becomes a singing voice signal, which is output from the speaker 17 via an amplifier (not shown) and also input to the voice processing unit 16. After the voice processing unit 16 performs A / D conversion on the singing voice signal S1, the control unit 11 extracts the pitch of the singing voice and outputs it as the singing pitch data SP. In this case, the process of extracting the pitch of the singing voice is performed approximately every 11.6 ms.

<B:動作>
図4は、カラオケ装置1の制御部11が行う処理の流れを示す図である。以下、図4を参照しつつ、この実施形態の動作について説明する。なお、図4において、伴奏再生部111、表示制御部112、ピッチ検出部113及び採点部114は、制御部11がROM又は記憶部12に記憶されたコンピュータプログラムを読み出して実行することにより実現される。なお、図中の矢印はデータの流れを概略的に示すものである。
<B: Operation>
FIG. 4 is a diagram illustrating a flow of processing performed by the control unit 11 of the karaoke apparatus 1. The operation of this embodiment will be described below with reference to FIG. In FIG. 4, the accompaniment playback unit 111, the display control unit 112, the pitch detection unit 113, and the scoring unit 114 are realized by the control unit 11 reading out and executing a computer program stored in the ROM or the storage unit 12. The The arrows in the figure schematically show the flow of data.

利用者が操作部14を用いて楽曲指定操作を行うと、指定された楽曲の楽曲データが楽曲データ記憶領域121からRAMへ転送される。伴奏再生部111は、RAM内の楽曲データのイベントを順次読み出すことによりカラオケ伴奏を行い、表示制御部112は、RAM内の楽曲データの歌詞データを順次読み出すことにより歌詞表示処理を実行する。具体的には、伴奏再生部111は、楽曲データの演奏トラックに記述されたイベントデータを音声処理部16に出力する。表示制御部112は、歌詞トラックの歌詞データを表示部13に出力する。この結果、カラオケ伴奏音がスピーカ17から出力される一方、歌詞データの表す歌詞が表示部13に表示される。   When the user performs a music designation operation using the operation unit 14, the music data of the designated music is transferred from the music data storage area 121 to the RAM. The accompaniment playback unit 111 performs karaoke accompaniment by sequentially reading out the music data events in the RAM, and the display control unit 112 executes lyrics display processing by sequentially reading out the lyrics data of the music data in the RAM. Specifically, the accompaniment reproducing unit 111 outputs event data described in the performance track of the music data to the sound processing unit 16. The display control unit 112 outputs the lyrics data of the lyrics track to the display unit 13. As a result, the karaoke accompaniment sound is output from the speaker 17, while the lyrics represented by the lyrics data are displayed on the display unit 13.

歌唱者は、スピーカ17から放音される伴奏音に併せて歌唱する。歌唱者の歌唱音声はマイクロホン15によってオーディオ信号に変換され、音声処理部16でA/D変換される。ピッチ検出部113は、音声処理部16でA/D変換されたオーディオデータ(以下「歌唱音声データ」という)からピッチを抽出し、歌唱ピッチデータSPとして出力する。ピッチ検出部113で生成された歌唱ピッチデータSPは、採点部114へ出力される。   The singer sings along with the accompaniment sound emitted from the speaker 17. The singing voice of the singer is converted into an audio signal by the microphone 15 and A / D converted by the voice processing unit 16. The pitch detection unit 113 extracts the pitch from the audio data A / D converted by the audio processing unit 16 (hereinafter referred to as “singing audio data”), and outputs it as the singing pitch data SP. The singing pitch data SP generated by the pitch detection unit 113 is output to the scoring unit 114.

次に、採点部114が行う採点処理について、図5に示すフローチャートを参照しつつ説明する。まず、採点部114は、リファレンスピッチデータRPと歌唱ピッチデータSPとをノート単位で比較し、両者の差分に応じてノート毎に採点を行う(ステップS1)。このとき、採点部114は、ノートの音長(相対的な音の時間長)に応じた採点を行う。より詳細には、採点部114は、リファレンスデータに含まれる各ノートのそれぞれについて、ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行う。   Next, the scoring process performed by the scoring unit 114 will be described with reference to the flowchart shown in FIG. First, the scoring unit 114 compares the reference pitch data RP and the singing pitch data SP in units of notes, and performs scoring for each note according to the difference between the two (step S1). At this time, the scoring unit 114 performs scoring according to the note length (relative sound duration). More specifically, the scoring unit 114 performs scoring for each note so that the scoring standard becomes stricter as the note length is longer for each note included in the reference data.

ここで、採点部114が行う採点処理の具体的な一例について、図6を参照しつつ説明する。図6(a),(b)は、ノート単位の採点処理の内容を説明するための図である。図6(a),(b)において、横軸は、1ノート内の歌唱ピッチの平均とリファレンスピッチとの差(以下「DCパラメータ値」という)を示し、縦軸は、1ノート内の歌唱ピッチの平均と歌唱ピッチとの差の平均(以下「ACパラメータ値」という)を示す。採点部114は、リファレンスデータに含まれる各ノートのそれぞれについて、各ノートに対応するリファレンスピッチデータRPと歌唱ピッチデータSPとから、ACパラメータ値とDCパラメータ値とを算出する。次いで、採点部114は、ACパラメータ値とDCパラメータ値との関係が、図6の領域P内に含まれるか否かを、ノート毎に判定する。DCパラメータ値とACパラメータ値との関係が図6の領域P内に含まれる場合には、採点部114は、そのノートについて減点する。一方、DCパラメータ値とACパラメータ値との関係が図6の領域P内に含まれない場合には、採点部114はそのノートについて加点を行う。   Here, a specific example of the scoring process performed by the scoring unit 114 will be described with reference to FIG. 6A and 6B are diagrams for explaining the content of scoring processing in units of notes. 6 (a) and 6 (b), the horizontal axis represents the difference between the average singing pitch within one note and the reference pitch (hereinafter referred to as “DC parameter value”), and the vertical axis represents the singing within one note. The average of the difference between the average pitch and the singing pitch (hereinafter referred to as “AC parameter value”) is shown. The scoring unit 114 calculates an AC parameter value and a DC parameter value for each note included in the reference data from the reference pitch data RP and the singing pitch data SP corresponding to each note. Next, the scoring unit 114 determines for each note whether or not the relationship between the AC parameter value and the DC parameter value is included in the region P of FIG. When the relationship between the DC parameter value and the AC parameter value is included in the region P in FIG. 6, the scoring unit 114 deducts points for the note. On the other hand, when the relationship between the DC parameter value and the AC parameter value is not included in the region P in FIG. 6, the scoring unit 114 adds points to the note.

このとき、採点部114は、各ノートの音長(相対的な音の時間長)に応じて異なる判定処理を行う。具体的には、採点部114は、ノートの音長が予め定められた閾値よりも長いか否かを判定し、音長が閾値よりも短いノートについては、図6(a)に示すグラフを用いて判定を行い、一方、音長が閾値よりも長いノートについては、図6(b)に示すグラフを用いて判定を行う。図6(a)に示すグラフと(b)に示すグラフとでは、図示のように、領域P内に含まれるか否かを判定するためのDCパラメータ値の閾値が異なっており、長いノートの判定に用いるグラフ(図6(b)に示すグラフ)のほうが領域Pの範囲が広くなっている。   At this time, the scoring unit 114 performs different determination processes according to the sound length of each note (relative sound time length). Specifically, the scoring unit 114 determines whether or not the sound length of the note is longer than a predetermined threshold value. For notes whose sound length is shorter than the threshold value, the graph shown in FIG. On the other hand, for notes whose sound length is longer than the threshold, the determination is made using the graph shown in FIG. The graph shown in FIG. 6A and the graph shown in FIG. 6B have different DC parameter value threshold values for determining whether or not they are included in the region P as shown in FIG. The range of the region P is wider in the graph used for the determination (the graph shown in FIG. 6B).

図6(a),(b)には、DCパラメータ値の閾値として、「45」と「35」とをそれぞれ示したが、採点部114は、図7に示すような、ノートの音長によって異なる閾値を用いて判定を行う。図7は、ノートの音長とDCパラメータ値の閾値との関係を示す図である。図において、横軸はノートの音長を示し、縦軸はDCパラメータ値の閾値の基準値(以下、単に「基準値」という)との差値を示す。図示のように、ノートの音長が長くなるほど、DCパラメータ値の基準値との差が大きくなるように設計されている。すなわち、ノートの音長が長くなるほど領域P(減点される領域)が大きくなり、採点基準が厳しくなる。このように、採点部114は、加点するか否かを判定するための領域Pを、ノートの音長が長くなるほど大きくすることで、ノートの音長が長いほど厳しく採点を行う。   6 (a) and 6 (b), “45” and “35” are shown as the threshold values of the DC parameter value, respectively. However, the scoring unit 114 depends on the note length as shown in FIG. The determination is performed using different threshold values. FIG. 7 is a diagram showing the relationship between the note length and the threshold value of the DC parameter value. In the figure, the horizontal axis indicates the note length, and the vertical axis indicates the difference value from the reference value of the DC parameter value threshold (hereinafter simply referred to as “reference value”). As shown in the figure, the design is such that the difference between the DC parameter value and the reference value increases as the note length of the note increases. That is, the longer the note length, the larger the area P (the area where points are deducted) and the stricter the scoring criteria. In this manner, the scoring unit 114 increases the area P for determining whether or not to add a score as the note length of the note increases, thereby severely scoring as the note length of the note increases.

また、採点部114は、ノートについて減点を行う場合には、図8に示すような、ノートの時間長が長いほど採点基準が厳しくなるようにノート毎に重み付けを行って採点する。図8は、ノートの長さ(msec)と重み付け係数との対応関係を示す図である。図8において、横軸はノートの長さを示し、縦軸は重み付け係数の値を示す。図示のように、ノートの長さが長くなるほど、重み付け係数の値が大きくなる。採点部114は、ノートについて減点を行う際に、この図8に示す関係を参照して、ノート毎に重み付けを行って減点する。すなわち、採点部114は、ノートの長さが長いほど、減点度(減点率又は減点量)を大きくして、減点を行う。   In addition, when scoring a note, the scoring unit 114 performs weighting for each note so that the scoring standard becomes stricter as the time length of the note becomes longer as shown in FIG. FIG. 8 is a diagram illustrating a correspondence relationship between the note length (msec) and the weighting coefficient. In FIG. 8, the horizontal axis indicates the length of the note, and the vertical axis indicates the value of the weighting coefficient. As shown in the figure, the value of the weighting coefficient increases as the note length increases. The scoring unit 114 refers to the relationship shown in FIG. 8 when weighting a note and weights the note for each note. In other words, the scoring unit 114 performs the deduction by increasing the deduction degree (deduction rate or deduction amount) as the length of the note is longer.

図5の説明に戻る。ノート単位での採点を終えると、採点部114は、楽曲が終了したか否かを判定し(ステップS2)、楽曲が終了したと判定した場合には(ステップS2;YES)、総合採点処理に進む一方、楽曲が終了していない場合には(ステップS2;NO)、次のノートの採点処理を続行する(ステップS1)。   Returning to the description of FIG. When scoring in units of notes is completed, the scoring unit 114 determines whether or not the music has ended (step S2). When it is determined that the music has ended (step S2; YES), the scoring process is performed. On the other hand, if the music is not finished (step S2; NO), the scoring process for the next note is continued (step S1).

楽曲が終了したと判定した場合には(ステップS2;YES)、採点部114は、ノート単位の採点結果を集計して総合採点を行う(ステップS3)。次いで、採点部114は、歌唱者が楽曲のテンポを操作部14によって変更している場合に、テンポを遅くしているほど採点基準が厳しくなるように、テンポコン情報に応じて採点結果を修正する(ステップS4)。ステップS4の処理により、テンポコン情報の内容が採点結果に反映される。具体的には、採点部114は、楽曲が再生されている間、操作部14から出力される信号に応じたテンポコン情報を、記憶部12の所定の記憶領域に時系列に記憶する。次いで、制御部11は、この記憶領域に記憶された時系列のテンポコン情報を参照して、楽曲全体におけるテンポコン情報の平均値を算出し、算出した平均値に応じて減点加点率を算出する。次いで、採点部114は、算出した減点加点率を用いてテンポコン情報の内容を採点結果に反映する。   If it is determined that the music has ended (step S2; YES), the scoring unit 114 totals the scoring results for each note and performs overall scoring (step S3). Next, the scoring unit 114 corrects the scoring result according to the tempo control information so that the singer changes the tempo of the music by the operation unit 14 so that the scoring standard becomes stricter as the tempo is slowed down. (Step S4). The content of the tempo control information is reflected in the scoring result by the process of step S4. Specifically, the scoring unit 114 stores tempo control information corresponding to the signal output from the operation unit 14 in a predetermined storage area of the storage unit 12 in time series while the music is being played. Next, the control unit 11 refers to the time-series tempo control information stored in the storage area, calculates an average value of the tempo control information in the entire music, and calculates a deduction point rate according to the calculated average value. Next, the scoring unit 114 reflects the content of the tempo control information in the scoring result using the calculated point deduction rate.

ここで、ステップS4に示す処理の具体的な内容の一例について説明する。採点部114は、まず、カラオケ装置1の利用者が操作部14を操作することによって入力されるテンポコン情報用いて、楽曲全体におけるテンポコン情報の平均値(以下「平均テンポコン情報Ave」)を算出する。具体的には、採点部114は、1サンプルのテンポコン情報tci、1サンプル時間Δt、楽曲演奏時間Tを用いて、以下の(1)式によって平均テンポコン情報Aveを算出する。

Figure 2009104097
Here, an example of specific contents of the process shown in step S4 will be described. The scoring unit 114 first calculates an average value of tempo control information in the entire music (hereinafter, “average tempo control information Ave”) using tempo control information input by the user of the karaoke apparatus 1 operating the operation unit 14. . Specifically, the scoring unit 114 calculates the average tempo control information Ave by the following equation (1) using the tempo control information tci of one sample, the one sample time Δt, and the music performance time T.
Figure 2009104097

次いで、採点部114は、算出した平均テンポコン情報Aveから、楽曲の採点に対する減点加点率perを算出する。具体的には、採点部114は、図9に示す関係を用いて減点加点率perを算出する。図9は、平均テンポコン情報Aveと減点加点率perとの対応関係を示す図である。図において、横軸は平均テンポコン情報Aveの値を示し、縦軸は減点加点率perを示す。図において、例えば、平均テンポコン情報Aveの値が「7」である場合には、採点部114は、このグラフを参照して、減点加点率perを「+10」(%)と決定する。採点部114は、決定した減点加点率perを用いて、テンポコン情報の内容を採点結果に反映する。具体的には、採点部114は、算出した減点加点率perを用いて以下の(2)式により採点結果tpを修正する。
tp = tp * (100+per)/100 …(2)
以上の処理により、テンポコン情報の内容が採点結果に反映される。
Next, the scoring unit 114 calculates a deduction point per for the music score from the calculated average tempo control information Ave. Specifically, the scoring unit 114 calculates a point deduction rate per using the relationship shown in FIG. FIG. 9 is a diagram illustrating a correspondence relationship between the average tempo control information Ave and the point deduction rate per. In the figure, the horizontal axis shows the value of the average tempo control information Ave, and the vertical axis shows the deduction point per. In the figure, for example, when the value of the average tempo control information Ave is “7”, the scoring unit 114 refers to this graph and determines the point deduction rate per as “+10” (%). The scoring unit 114 reflects the content of the tempo control information in the scoring result using the determined deduction point per. Specifically, the scoring unit 114 corrects the scoring result tp by the following formula (2) using the calculated deduction point per.
tp = tp * (100 + per) / 100 (2)
Through the above processing, the content of the tempo control information is reflected in the scoring result.

図5の説明に戻る。ステップS4の処理を終えると、次いで、採点部114は、楽曲データのヘッダに記述された楽曲テンポ情報を参照して、この楽曲テンポ情報の示すテンポが遅いほど採点基準が厳しくなるように、採点結果を更に修正する(ステップS5)。この処理は、楽曲のテンポが遅いほど音程を合わせるのが容易であることを考慮した処理である。まず、採点部114は、楽曲データのヘッダに記述された楽曲テンポ情報を参照して、各ノートのそれぞれについて、1ノート内の楽曲テンポ情報の平均値avkを算出する。なお、楽曲全体においてテンポが常に一定である場合には、楽曲テンポ情報をそのまま平均値avkとして用いればよい。次いで、採点部114は、楽曲内の各ノートの難易度xkを、各ノートの時間長ntkと、1ノート内の楽曲テンポ情報の平均値avkとを用いて、(3)式により算出する。なお、(3)式中の「280」はMIDIの最速のテンポである。
xk = ntk * (280 − avk) …(3)
Returning to the description of FIG. When the processing of step S4 is completed, the scoring unit 114 then refers to the music tempo information described in the header of the music data, so that the scoring standard becomes stricter as the tempo indicated by the music tempo information is slower. The result is further corrected (step S5). This process is a process that takes into account that the slower the tempo of a music, the easier it is to adjust the pitch. First, the scoring unit 114 refers to the music tempo information described in the header of the music data, and calculates the average value avk of the music tempo information in one note for each of the notes. When the tempo is always constant throughout the music, the music tempo information may be used as it is as the average value avk. Next, the scoring unit 114 calculates the difficulty xk of each note in the music by using the time length ntk of each note and the average value avk of the music tempo information in one note according to the equation (3). Note that “280” in equation (3) is the fastest tempo of MIDI.
xk = ntk * (280−avk) (3)

次いで、採点部114は、算出したノート毎の難易度xkを集計して、楽曲全体の難易度を算出する。より具体的には、採点部114は、ノート毎の難易度xkと、楽曲に含まれる総ノート数Nとを用いて、次の(4)式により楽曲全体の難易度txを算出する。

Figure 2009104097
Next, the scoring unit 114 adds up the calculated difficulty levels xk for each note to calculate the difficulty level of the entire music. More specifically, the scoring unit 114 calculates the difficulty tx of the entire music by the following equation (4) using the difficulty xx for each note and the total number N of notes included in the music.
Figure 2009104097

次いで、採点部114は、図10に示すグラフを参照して減点加点率pを算出する。図10は、難易度txと減点加点率pとの対応関係を示す図である。図において、横軸は難易度txを示し、縦軸は減点加点率pを示す。次いで、採点部114は、決定した減点加点率pを用いて、曲の難易度を採点結果に反映させる。具体的には、採点部114は、算出した減点加点率pを用いて以下の(5)式により採点結果tpを修正する。
tp =tp *(100+p)/100 …(5)
図10に示すように、曲の難易度が低いほど減点率を大きくすることで、楽曲のテンポを採点結果に反映させることができる。
Next, the scoring unit 114 calculates a point deduction rate p with reference to the graph shown in FIG. FIG. 10 is a diagram illustrating a correspondence relationship between the difficulty tx and the deduction point p. In the figure, the horizontal axis indicates the difficulty tx, and the vertical axis indicates the deduction point p. Next, the scoring unit 114 reflects the difficulty level of the music in the scoring result using the determined deduction point p. Specifically, the scoring unit 114 corrects the scoring result tp by the following equation (5) using the calculated deduction point p.
tp = tp * (100 + p) / 100 (5)
As shown in FIG. 10, the tempo of the music can be reflected in the scoring result by increasing the deduction rate as the difficulty of the music is lower.

このように、採点部114は、曲調がゆっくりである楽曲に対しては採点基準が厳しくなるように採点を行う(図5のステップS5)。同様にして、採点部114は、歌唱者が操作部14を用いてテンポを変更してテンポをゆっくりにした楽曲に対しても、採点結果が低くなるような採点を行う(図5のステップS4)。   In this way, the scoring unit 114 performs scoring so that the scoring criteria become stricter for music with a slow musical tone (step S5 in FIG. 5). Similarly, the scoring unit 114 performs scoring so that the scoring result is low even for a song that has been slowed down by the singer changing the tempo using the operation unit 14 (step S4 in FIG. 5). ).

図5の説明に戻る。採点部114は、採点結果を示すデータを表示制御部112に出力する(ステップS6)。表示制御部112は、採点部114から供給されるデータに基づいて、採点結果を示す画像を表示部13に表示させる。歌唱者は、表示部13に表示される画面を参照することで、自身の歌唱の採点結果を確認することができる。   Returning to the description of FIG. The scoring unit 114 outputs data indicating the scoring result to the display control unit 112 (step S6). The display control unit 112 causes the display unit 13 to display an image indicating the scoring result based on the data supplied from the scoring unit 114. The singer can check the scoring result of his / her song by referring to the screen displayed on the display unit 13.

ところで、カラオケ装置を用いて歌唱を行う場合には、テンポコンを操作して楽曲をゆっくり再生すると、ひとつひとつのノートが長くなり音程を合わせるのが容易になる。そのため、従来の装置では、楽曲をゆっくり再生した場合には、本来は高得点ではない歌唱でも高得点がとれてしまう。それに対しこの実施形態では、楽曲演奏時のテンポコン情報を常に記録し、時間で平均をした値から減点率を決定し、元の得点から減点を行うことによって、楽曲の速さを制御する値(テンポコン情報)を、採点結果に反映させる。このように、テンポコン情報を採点結果に反映させることにより、楽曲やユーザ操作(テンポコン)による歌唱難易度を調整し公平な採点を行うことができる。   By the way, when performing singing using a karaoke apparatus, if a tempo control is operated and music is reproduced slowly, each note will become long and it will become easy to adjust a pitch. Therefore, with a conventional device, when a song is played slowly, a high score can be obtained even for a song that is not originally a high score. On the other hand, in this embodiment, tempo control information at the time of music performance is always recorded, a deduction rate is determined from a value obtained by averaging over time, and a value for controlling the speed of music by deducting from the original score ( Tempo control information) is reflected in the scoring results. In this way, by reflecting the tempo control information in the scoring result, it is possible to adjust the degree of singing difficulty by the music or the user operation (tempo control) and perform fair scoring.

また、楽曲の速さによって高得点を取るための難易度が変わるが、この実施形態では、楽曲テンポ情報を用いて、楽曲毎の固有の難易度を計り調整することで、楽曲のテンポが遅いほど採点基準を厳しくして採点する。このようにすることにより、従来と比較して、各楽曲間の難易度調整の精度を向上させることができ、選択楽曲の採点に対する不公平感を減らすことができる。これにより、従来と比較して公平な採点を行うことができ、例えば、曲目に縛られないランキングゲームの運用が可能になる。   In addition, although the difficulty level for obtaining a high score varies depending on the speed of the music, in this embodiment, the music tempo is slowed by measuring and adjusting the difficulty level specific to each music using the music tempo information. The grading criteria will be tightened. By doing in this way, compared with the past, the precision of the difficulty adjustment between each music can be improved, and the unfair feeling with respect to scoring of a selection music can be reduced. As a result, it is possible to score fairly as compared with the prior art, and for example, it is possible to operate a ranking game that is not tied to music.

また、この実施形態では、ノートの音長が長いほど採点基準を厳しくするから、これにより、人間が歌唱を聞いた感覚と得点との差分を軽減することができ、長いノートに対して音程がずれた場合の聴取者の聴感に合った採点を行うことができる。   Also, in this embodiment, the longer the note length of the note, the stricter the scoring criteria, so this can reduce the difference between the sense that the human heard the song and the score, and the pitch is longer for a longer note. It is possible to score according to the listener's sensation in the case of deviation.

<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。なお、以下の各態様を適宜に組み合わせてもよい。
(1)上述の実施形態では、テンポの変更内容を示すテンポコン情報を、総合得点や音程判定に反映させるようにした。テンポコン情報を反映させる採点態様はこれに限らず、他の種々の採点項目に反映させてもよい。例えば、ビブラートやしゃくり、こぶし等の歌唱技法の巧拙や使用回数に応じて採点を行う際に、この採点項目にテンポコン情報の内容を反映させるようにしてもよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below. In addition, you may combine each following aspect suitably.
(1) In the above-described embodiment, the tempo control information indicating the tempo change content is reflected in the overall score and the pitch determination. The scoring mode in which tempo control information is reflected is not limited to this, and may be reflected in other various scoring items. For example, when scoring is performed according to the skill of the singing technique such as vibrato, shackle, fist and the number of times of use, the contents of the tempo control information may be reflected in this scoring item.

また、上述の実施形態では、曲調がゆっくりである曲に対して採点結果を低くするようにした。同様にして、曲調が早い楽曲に対して採点結果を高くするようにしてもよい。   Moreover, in the above-mentioned embodiment, the scoring result was made low with respect to the music whose music tone is slow. Similarly, the scoring result may be increased for music with a fast tune.

また、上述の実施形態では、操作部14から出力される操作信号に応じたテンポコン情報や楽曲データのヘッダに記述された楽曲テンポデータを、テンポを表すテンポ情報として用いるようにし、制御部11が、操作部14又は楽曲データ記憶領域121からテンポ情報を取得するようにした。制御部11がテンポ情報を取得する態様はこれに限らず、例えば、制御部11が、再生されるカラオケ伴奏から所定の区切り(例えば小節毎の区切、等)を時系列に検出し、この検出結果からテンポを算出するようにしてもよく、要するに、制御部11がテンポに係る情報をテンポ情報として取得するようにすればよい。   In the above-described embodiment, the tempo control information corresponding to the operation signal output from the operation unit 14 or the music tempo data described in the header of the music data is used as tempo information representing the tempo, and the control unit 11 The tempo information is acquired from the operation unit 14 or the music data storage area 121. The manner in which the control unit 11 acquires the tempo information is not limited to this. For example, the control unit 11 detects a predetermined break (for example, a break for each measure) from the karaoke accompaniment to be played back in time series, and detects this. The tempo may be calculated from the result. In short, the control unit 11 may acquire information related to the tempo as tempo information.

(2)上述の実施形態では、採点結果を表示部13に表示させることによって歌唱者に報知した。報知の態様はこれに限らず、例えば、音声メッセージを出力することによって報知してもよく、また、判定結果を示す情報を電子メール形式で歌唱者のメール端末に送信するという形態であってもよい。また、判定結果を示す情報を記憶端末に出力して記憶させるようにしてもよく、この場合、操作者はコンピュータを用いてこの記憶媒体から情報を読み出させることで、それらを参照することができる。また、判定結果を所定の用紙に印刷出力してもよい。要は歌唱者に対して何らかの手段でメッセージ乃至情報を伝えられるように、評価結果を示す情報を出力するものであればよい。 (2) In the above-described embodiment, the singer is notified by displaying the scoring result on the display unit 13. The notification mode is not limited to this. For example, the notification may be performed by outputting a voice message, or information indicating the determination result may be transmitted to the singer's mail terminal in an e-mail format. Good. In addition, information indicating the determination result may be output to the storage terminal and stored. In this case, the operator can refer to the information by reading the information from the storage medium using a computer. it can. The determination result may be printed out on a predetermined sheet. In short, any information may be output as long as it can output a message or information to the singer by any means.

(3)上述の実施形態において、歌唱音声の比較対象となるリファレンスデータは、例えば楽曲のガイドメロディを表すデータであってもよく、また、楽曲の模範となる歌唱音声を表すデータであってもよく、楽曲の模範となる音を表すデータであればよい。 (3) In the above-described embodiment, the reference data to be compared with the singing voice may be, for example, data representing the guide melody of the music, or may be data representing the singing voice serving as a model of the music. Any data may be used as long as it represents the sound that serves as an example of the music.

(4)上述の実施形態では、歌唱者の歌唱音声をリアルタイムで解析するようにしたが、必ずしもリアルタイムで解析する必要はなく、例えば記憶部に予め記憶されたオーディオ信号を解析するようにしてもよい。また、例えば、インターネット等の通信ネットワークを介してデータ伝送を行うための通信部をカラオケ装置1に設ける構成とし、通信ネットワークを介してオーディオ信号を受信し、受信したオーディオ信号を解析するようにしてもよい。 (4) In the above-described embodiment, the singing voice of the singer is analyzed in real time, but it is not always necessary to analyze in real time. For example, the audio signal stored in advance in the storage unit may be analyzed. Good. In addition, for example, the karaoke apparatus 1 is provided with a communication unit for performing data transmission via a communication network such as the Internet, so that an audio signal is received via the communication network and the received audio signal is analyzed. Also good.

(5)上述の実施形態では、制御部11が、楽曲データ記憶領域121に記憶された楽曲データに含まれるリファレンスデータからリファレンスピッチデータRPを生成するが、これに代えて、模範となる楽音のピッチを表すリファレンスピッチデータを予め記憶部12に記憶しておくようにしてもよい。 (5) In the above-described embodiment, the control unit 11 generates the reference pitch data RP from the reference data included in the music data stored in the music data storage area 121. Reference pitch data representing the pitch may be stored in the storage unit 12 in advance.

(6)上述の実施形態では、歌唱者の歌唱音声とリファレンスデータとを比較したが、歌唱者の歌唱音声に変えて、演奏者による楽器の演奏音とリファレンスデータとを比較してもよい。本実施形態にいう「音声」には、人間が発生した音声や楽器の演奏音といった種々の音響が含まれる。 (6) In the above-described embodiment, the singing voice of the singer and the reference data are compared. However, instead of the singing voice of the singer, the performance sound of the instrument by the performer and the reference data may be compared. The “speech” referred to in the present embodiment includes various sounds such as a sound generated by a person and a performance sound of a musical instrument.

(7)上述の実施形態では、カラオケ装置1が本実施形態に係る全ての処理を実行するようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記実施形態に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置1を実現するようにしてもよい。例えば、マイクロホンやスピーカ、表示装置及び操作部等を備えるコンピュータ装置と、採点処理を実行するサーバ装置とが通信ネットワークで接続されたシステムとして構成されていてもよい。この場合は、例えば、コンピュータ装置が、マイクロホンで収音された音声をオーディオ信号に変換してサーバ装置に送信し、サーバ装置が、受信したオーディオ信号を解析して採点し、採点結果をコンピュータ装置に送信してもよい。 (7) In the above-described embodiment, the karaoke apparatus 1 performs all the processes according to the present embodiment. On the other hand, two or more devices connected by a communication network may share the functions according to the above-described embodiment, and a system including the plurality of devices may realize the karaoke device 1 of the same embodiment. . For example, a computer device including a microphone, a speaker, a display device, an operation unit, and the like may be configured as a system in which a server device that executes scoring processing is connected via a communication network. In this case, for example, the computer apparatus converts the sound collected by the microphone into an audio signal and transmits it to the server apparatus, and the server apparatus analyzes and scores the received audio signal, and the scoring result is calculated by the computer apparatus. May be sent to.

(8)上述した実施形態におけるカラオケ装置1の制御部11によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、RAM、ROMなどの記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置1にダウンロードさせることも可能である。 (8) The program executed by the control unit 11 of the karaoke apparatus 1 in the above-described embodiment is recorded on a recording medium such as a magnetic tape, a magnetic disk, a flexible disk, an optical recording medium, a magneto-optical recording medium, RAM, or ROM. Can be provided in state. It is also possible to download to the karaoke apparatus 1 via a network such as the Internet.

(9)上述の実施形態では、制御部11がテンポコン情報の内容を(2)式を用いて採点結果に反映させるようにしたが、テンポコン情報の内容を採点結果に反映させる態様はこれに限らず、要は、制御部11が、テンポコン情報の示すテンポが遅いほど採点基準が厳しくなるように、テンポコン情報を採点結果に反映させるものであればどのようなものであってもよい。具体的には、例えば、制御部11が、次の(6)式を用いてテンポコン情報の内容を採点結果に反映させるようにしてもよい。
tp = tp * (100+per+α)/100 …(6)
(9) In the above-described embodiment, the control unit 11 reflects the content of the tempo control information in the scoring result using the expression (2). However, the aspect of reflecting the content of the tempo control information in the scoring result is not limited thereto. In short, the control unit 11 may be anything as long as the tempo control information is reflected in the scoring result so that the scoring standard becomes stricter as the tempo indicated by the tempo control information becomes slower. Specifically, for example, the control unit 11 may reflect the contents of the tempo control information in the scoring result using the following equation (6).
tp = tp * (100 + per + α) / 100 (6)

また、上述の実施形態では、制御部11が楽曲テンポ情報を(5)式を用いて採点結果に反映させるようにしたが、楽曲テンポ情報を採点結果に反映させる態様はこれに限らず、要は、楽曲テンポ情報の示すテンポが遅いほど採点基準が厳しくなるように、楽曲テンポ情報を採点結果に反映させるものであればどのようなものであってもよい。具体的には、例えば、制御部11が次の(7)式を用いて楽曲テンポ情報の内容を採点結果に反映させるようにしてもよい。
tp =tp *((100+p+α)/100) …(7)
In the above-described embodiment, the control unit 11 reflects the music tempo information in the scoring result using the equation (5). However, the aspect in which the music tempo information is reflected in the scoring result is not limited to this. May be anything as long as the music tempo information is reflected in the scoring result so that the grading standard becomes stricter as the tempo indicated by the music tempo information becomes slower. Specifically, for example, the control unit 11 may reflect the content of the music tempo information in the scoring result using the following equation (7).
tp = tp * ((100 + p + α) / 100) (7)

(6)式又は(7)式において、例えば、制御部11がαの値を楽曲の種別により決定するようにしてもよい(例えば、楽曲の種別が演歌の場合はα=−5,ポップスの場合はα=0,童謡の場合はα=−10、等)。このようにすることで、元のテンポが遅い曲が多い演歌や歌いやすい曲が多い童謡では難しくする事で得点バランスをコントロールすることができる。   In the expression (6) or (7), for example, the control unit 11 may determine the value of α according to the type of music (for example, when the music type is enka, α = −5, pops Α = 0 for cases, α = -10 for nursery rhymes, etc.). By doing this, the score balance can be controlled by making it difficult for enka with many songs with slow original tempos and nursery rhymes with many songs that are easy to sing.

また、(6)式又は(7)式において、制御部11が歌唱者の年齢によってαの値を決定するようにしてもよい。具体的には、例えば、制御部11が図11に示すような関数を用いてαの値を決定してもよい。図11において、横軸は歌唱者の年齢を示し、縦軸はαの値を示す。この場合、歌唱者は、操作部14を用いて自身の年齢を入力する操作を行う。制御部11が、操作部14から出力される操作信号に応じて歌唱者の年齢を示す年齢情報を取得し、取得した年齢情報から図11に示す関数を用いてαの値を決定する。このように歌唱者の年齢を用いてαの値を決定することで、例えば、子供や年配者に対してやさしい採点を行うことができる。   Moreover, in the formula (6) or the formula (7), the control unit 11 may determine the value of α according to the singer's age. Specifically, for example, the control unit 11 may determine the value of α using a function as shown in FIG. In FIG. 11, the horizontal axis indicates the age of the singer, and the vertical axis indicates the value of α. In this case, the singer performs an operation of inputting his / her age using the operation unit 14. The control unit 11 acquires age information indicating the singer's age according to the operation signal output from the operation unit 14, and determines the value of α from the acquired age information using a function shown in FIG. Thus, by determining the value of α using the singer's age, for example, easy scoring can be performed for children and the elderly.

また、例えば、(6)式又は(7)式において、歌唱者の誕生日をαの値に反映させるようにしてもよい。具体的には、例えば、制御部11が、歌唱者の誕生日の場合にはα=0とし、誕生日以外の日の場合にはα=10とするようにしてもよい。この場合は、歌唱者は、操作部14を用いて自身の誕生日を入力する操作を行い、制御部11は、操作部14からの操作信号に応じて、その日付が入力された誕生日と一致する場合に、それ以外の場合よりも採点結果が高くなるように採点結果を修正する。このようにすることで、誕生日の人に対してやさしい採点を行うことができる。   For example, in the formula (6) or the formula (7), the birthday of the singer may be reflected in the value of α. Specifically, for example, the control unit 11 may set α = 0 for a singer's birthday and α = 10 for a date other than the birthday. In this case, the singer performs an operation of inputting his / her birthday using the operation unit 14, and the control unit 11 determines the birthday that the date is input in response to an operation signal from the operation unit 14. If they match, the scoring results are corrected so that the scoring results are higher than in other cases. In this way, it is possible to give a gentle scoring to a birthday person.

また、例えば、(6)式又は(7)式において、制御部11が端末への配信状態に応じてαの値を決定するようにしてもよい。具体的には、例えば、変形例(7)に示すような、コンピュータ装置(端末)とサーバ装置とが通信ネットワークで接続されたシステムにおいて、サーバ装置が、端末への最終配信から何週経過したかによって、図12に示すような関数を用いてαの値を決定してもよい。図12において、横軸は最終配信から経過した週を示し、縦軸はαの値を示す。この場合、サーバ装置は、端末毎に最終配信日を記憶しておき、最終配信日から何週経過したかに応じて、図12に示す関数を用いてαの値を決定する。このようにすれば、歌唱者に対して配信を受けるように促す効果も得られる。   For example, in the formula (6) or the formula (7), the control unit 11 may determine the value of α according to the distribution state to the terminal. Specifically, for example, in a system in which a computer device (terminal) and a server device are connected via a communication network as shown in Modification (7), how many weeks have passed since the server device was last delivered to the terminal. Depending on this, the value of α may be determined using a function as shown in FIG. In FIG. 12, the horizontal axis indicates the week that has passed since the final delivery, and the vertical axis indicates the value of α. In this case, the server device stores the last delivery date for each terminal, and determines the value of α using the function shown in FIG. 12 according to how many weeks have passed since the last delivery date. If it does in this way, the effect which prompts a singer to receive distribution will also be acquired.

カラオケ装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a karaoke apparatus. 楽曲データの構造を示す図である。It is a figure which shows the structure of music data. 楽曲データに含まれるリファレンスデータトラックの内容を示す図である。It is a figure which shows the content of the reference data track contained in music data. カラオケ装置の制御部が行う処理の流れを示す図である。It is a figure which shows the flow of the process which the control part of a karaoke apparatus performs. 採点部が行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which a scoring part performs. 採点処理の内容を説明するための図である。It is a figure for demonstrating the content of the scoring process. 採点処理の内容を説明するための図である。It is a figure for demonstrating the content of the scoring process. 採点処理の内容を説明するための図である。It is a figure for demonstrating the content of the scoring process. 減点加点率の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of a point deduction point rate. 減点加点率の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of a point deduction point rate. 採点処理の内容を説明するための図である。It is a figure for demonstrating the content of the scoring process. 採点処理の内容を説明するための図である。It is a figure for demonstrating the content of the scoring process.

符号の説明Explanation of symbols

1…カラオケ装置、11…制御部、12…記憶部、13…表示部、14…操作部、15…マイクロホン、16…音声処理部、17…スピーカ、121…楽曲データ記憶領域、122…背景画データ記憶領域。 DESCRIPTION OF SYMBOLS 1 ... Karaoke apparatus, 11 ... Control part, 12 ... Memory | storage part, 13 ... Display part, 14 ... Operation part, 15 ... Microphone, 16 ... Sound processing part, 17 ... Speaker, 121 ... Music data storage area, 122 ... Background image Data storage area.

Claims (8)

楽曲の模範となる音を表すリファレンスデータを記憶する記憶手段と、
前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、
前記楽曲のテンポを表すテンポ情報を取得する取得手段と、
収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを比較し、両者の差分に応じて採点を行う採点手段であって、前記取得手段により取得されたテンポ情報の示すテンポが遅いほど採点基準が厳しくなるように採点を行う採点手段と、
前記採点手段による採点結果を示すデータを出力する出力手段と
を具備することを特徴とする採点装置。
Storage means for storing reference data representing sounds that serve as examples of music;
Reading means for reading the reference data stored in the storage means;
Obtaining means for obtaining tempo information representing the tempo of the music;
A scoring unit that compares the audio signal supplied from the sound collection unit and the reference data read by the reading unit, and performs scoring according to the difference between the audio signal and the tempo information acquired by the acquiring unit. Scoring means for scoring so that the slower the tempo shown, the stricter the scoring criteria;
And an output means for outputting data indicating the result of the scoring by the scoring means.
楽曲の模範となる音をノートの列で表すリファレンスデータを記憶する記憶手段と、
前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、
収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを、前記ノート毎に比較し、両者の差分に応じて前記ノート毎に採点を行う採点手段であって、前記ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行う採点手段と、
前記採点手段による採点結果を示すデータを出力する出力手段と
を具備することを特徴とする採点装置。
Storage means for storing reference data that represents a sound as an example of a song in a row of notes;
Reading means for reading the reference data stored in the storage means;
An audio signal supplied from a sound collection means and reference data read by the reading means are compared for each note, and scoring means for scoring for each note according to the difference between the two, Scoring means for scoring each note so that the longer the note length, the stricter the scoring criteria;
And an output means for outputting data indicating the result of the scoring by the scoring means.
前記記憶手段は、前記楽曲の模範となる音をノートの列で表すリファレンスデータを記憶し、
前記採点手段は、前記収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを、前記ノート毎に比較し、両者の差分に応じて採点を行う採点手段であって、前記取得手段により取得されたテンポ情報の示すテンポが遅いほど採点基準が厳しくなるとともに、前記ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行う
ことを特徴とする請求項1に記載の採点装置。
The storage means stores reference data representing a sound as an example of the music in a row of notes,
The scoring means is a scoring means for comparing the audio signal supplied from the sound collection means and the reference data read by the reading means for each note and scoring according to the difference between the two. The scoring standard becomes stricter as the tempo indicated by the tempo information acquired by the acquisition means becomes slower, and the scoring standard is made stricter as the note length of the note becomes longer. Item 10. The scoring device according to item 1.
前記記憶手段は、前記楽曲の模範となる音を表すリファレンスデータと該楽曲のテンポを表すテンポ情報とを対応付けて記憶し、
前記取得手段は、前記読出手段により読み出されたリファレンスデータに対応するテンポ情報を前記記憶手段から読み出す
ことを特徴とする請求項1又は3に記載の採点装置。
The storage means stores reference data representing a sound as an example of the music in association with tempo information representing the tempo of the music,
The scoring device according to claim 1 or 3, wherein the acquisition unit reads tempo information corresponding to the reference data read by the reading unit from the storage unit.
前記取得手段は、利用者によって操作される操作手段から出力される操作信号に応じて前記テンポ情報を取得する
ことを特徴とする請求項1又は3に記載の採点装置。
The scoring device according to claim 1, wherein the acquisition unit acquires the tempo information according to an operation signal output from an operation unit operated by a user.
前記採点手段は、前記オーディオ信号と前記リファレンスデータとを前記ノート毎に比較し、両者の差分に応じて前記ノート毎に採点を行うとともに、前記ノート毎の採点結果を集計して総合採点を行う
ことを特徴とする請求項2又は3に記載の採点装置。
The scoring means compares the audio signal and the reference data for each note, performs scoring for each note according to the difference between the two, and totalizes the scoring results for each note. The scoring device according to claim 2 or 3, wherein
楽曲の模範となる音を表すリファレンスデータを記憶する記憶手段を備えるコンピュータを、
前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、
前記楽曲のテンポを表すテンポ情報を取得する取得手段と、
収音手段から供給されるオーディオ信号と前記読出手段により読み出されたリファレンスデータとを比較し、両者の差分に応じて採点を行う採点手段であって、前記取得手段により取得されたテンポ情報の示すテンポが遅いほど採点基準が厳しくなるように採点を行う採点手段と、
前記採点手段による採点結果を示すデータを出力する出力手段
として機能させるプログラム。
A computer comprising storage means for storing reference data representing a sound that serves as an example of music,
Reading means for reading the reference data stored in the storage means;
Obtaining means for obtaining tempo information representing the tempo of the music;
A scoring unit that compares the audio signal supplied from the sound collection unit and the reference data read by the reading unit, and performs scoring according to the difference between the audio signal and the tempo information acquired by the acquiring unit. Scoring means for scoring so that the slower the tempo shown, the stricter the scoring criteria;
A program that functions as an output unit that outputs data indicating a scoring result by the scoring unit.
楽曲の模範となる音をノートの列で表すリファレンスデータを記憶する記憶手段を備えるコンピュータを、
前記記憶手段に記憶されたリファレンスデータを読み出す読出手段と、
収音手段から供給されるオーディオ信号と前記記憶手段に記憶されたリファレンスデータとを、前記ノート毎に比較し、両者の差分に応じて前記ノート毎に採点を行う採点手段であって、前記ノートの音長が長いほど採点基準が厳しくなるようにノート毎の採点を行う採点手段と、
前記採点手段による採点結果を示すデータを出力する出力手段
として機能させるプログラム。
A computer comprising storage means for storing reference data that represents a model sound of music by a sequence of notes,
Reading means for reading the reference data stored in the storage means;
The scoring means for comparing the audio signal supplied from the sound collection means and the reference data stored in the storage means for each note, and scoring for each note according to the difference between the notes. A scoring means for scoring each note so that the scoring criteria become stricter as the note length is longer,
A program that functions as an output unit that outputs data indicating a scoring result by the scoring unit.
JP2008006141A 2007-10-05 2008-01-15 Scoring device and program Active JP5286793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008006141A JP5286793B2 (en) 2007-10-05 2008-01-15 Scoring device and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007262519 2007-10-05
JP2007262519 2007-10-05
JP2008006141A JP5286793B2 (en) 2007-10-05 2008-01-15 Scoring device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013029074A Division JP5799966B2 (en) 2007-10-05 2013-02-18 Scoring device and program

Publications (2)

Publication Number Publication Date
JP2009104097A true JP2009104097A (en) 2009-05-14
JP5286793B2 JP5286793B2 (en) 2013-09-11

Family

ID=40705797

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008006141A Active JP5286793B2 (en) 2007-10-05 2008-01-15 Scoring device and program
JP2013029074A Active JP5799966B2 (en) 2007-10-05 2013-02-18 Scoring device and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013029074A Active JP5799966B2 (en) 2007-10-05 2013-02-18 Scoring device and program

Country Status (1)

Country Link
JP (2) JP5286793B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010276891A (en) * 2009-05-29 2010-12-09 Casio Computer Co Ltd Music piece difficulty level evaluation device and music piece difficulty level evaluation program
JP2011095438A (en) * 2009-10-29 2011-05-12 Daiichikosho Co Ltd Karaoke scoring system
JP2011095437A (en) * 2009-10-29 2011-05-12 Daiichikosho Co Ltd Karaoke scoring system
JP2012032546A (en) * 2010-07-29 2012-02-16 Xing Inc Karaoke device
JP2014010372A (en) * 2012-06-30 2014-01-20 Daiichikosho Co Ltd Auxiliary tempo output system when changing tempo of karaoke music performance
JP2015191087A (en) * 2014-03-28 2015-11-02 株式会社エクシング Musical performance device and program
JP2016029429A (en) * 2014-07-25 2016-03-03 株式会社第一興商 Karaoke device
JP2016075754A (en) * 2014-10-03 2016-05-12 株式会社第一興商 Karaoke scoring device performing equivalent scoring regardless of length of singing time

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177144A (en) * 2015-03-20 2016-10-06 ヤマハ株式会社 Evaluation reference generation device and signing evaluation device
JP6832253B2 (en) * 2017-07-31 2021-02-24 株式会社第一興商 Artificial laryngeal device
CN109003623A (en) * 2018-08-08 2018-12-14 爱驰汽车有限公司 Vehicle-mounted singing points-scoring system, method, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305356A (en) * 1995-04-27 1996-11-22 Yamaha Corp Musical amusement system
JPH1026992A (en) * 1996-07-10 1998-01-27 Victor Co Of Japan Ltd Karaoke device
JP2003288238A (en) * 2001-08-09 2003-10-10 Konami Co Ltd Evaluation program, its storage medium, timing evaluation device, timing evaluation system
JP2005107329A (en) * 2003-09-30 2005-04-21 Yamaha Corp Karaoke machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305356A (en) * 1995-04-27 1996-11-22 Yamaha Corp Musical amusement system
JPH1026992A (en) * 1996-07-10 1998-01-27 Victor Co Of Japan Ltd Karaoke device
JP2003288238A (en) * 2001-08-09 2003-10-10 Konami Co Ltd Evaluation program, its storage medium, timing evaluation device, timing evaluation system
JP2005107329A (en) * 2003-09-30 2005-04-21 Yamaha Corp Karaoke machine

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010276891A (en) * 2009-05-29 2010-12-09 Casio Computer Co Ltd Music piece difficulty level evaluation device and music piece difficulty level evaluation program
JP2011095438A (en) * 2009-10-29 2011-05-12 Daiichikosho Co Ltd Karaoke scoring system
JP2011095437A (en) * 2009-10-29 2011-05-12 Daiichikosho Co Ltd Karaoke scoring system
JP2012032546A (en) * 2010-07-29 2012-02-16 Xing Inc Karaoke device
JP2014010372A (en) * 2012-06-30 2014-01-20 Daiichikosho Co Ltd Auxiliary tempo output system when changing tempo of karaoke music performance
JP2015191087A (en) * 2014-03-28 2015-11-02 株式会社エクシング Musical performance device and program
JP2016029429A (en) * 2014-07-25 2016-03-03 株式会社第一興商 Karaoke device
JP2016075754A (en) * 2014-10-03 2016-05-12 株式会社第一興商 Karaoke scoring device performing equivalent scoring regardless of length of singing time

Also Published As

Publication number Publication date
JP2013127644A (en) 2013-06-27
JP5286793B2 (en) 2013-09-11
JP5799966B2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP5286793B2 (en) Scoring device and program
TWI497484B (en) Performance evaluation device, karaoke device, server device, performance evaluation system, performance evaluation method and program
US8492637B2 (en) Information processing apparatus, musical composition section extracting method, and program
US8802953B2 (en) Scoring of free-form vocals for video game
JP2007256617A (en) Musical piece practice device and musical piece practice system
JP4949899B2 (en) Pitch display control device
JP2007310204A (en) Musical piece practice support device, control method, and program
JP4212446B2 (en) Karaoke equipment
JP4163584B2 (en) Karaoke equipment
JP3996565B2 (en) Karaoke equipment
JP2007334364A (en) Karaoke machine
JP4204941B2 (en) Karaoke equipment
JP4913638B2 (en) Evaluation device and karaoke device
JP5014073B2 (en) Melody display control device and karaoke device
JP2022075147A (en) Acoustic processing system, acoustic processing method and program
JP4116849B2 (en) Operation evaluation device, karaoke device, and program
JP4222915B2 (en) Singing voice evaluation device, karaoke scoring device and programs thereof
JP4222919B2 (en) Karaoke equipment
JP6070652B2 (en) Reference display device and program
JP2009092871A (en) Scoring device and program
JP2006251697A (en) Karaoke device
JP4891135B2 (en) Evaluation device
JP4219652B2 (en) A singing practice support system for a karaoke device that controls the main melody volume at the relevant location based on the pitch error measured immediately before repeat performance
JP5416396B2 (en) Singing evaluation device and program
JP2005107332A (en) Karaoke machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

R150 Certificate of patent or registration of utility model

Ref document number: 5286793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150