JP2010156777A - Singing grading system and program - Google Patents

Singing grading system and program Download PDF

Info

Publication number
JP2010156777A
JP2010156777A JP2008334133A JP2008334133A JP2010156777A JP 2010156777 A JP2010156777 A JP 2010156777A JP 2008334133 A JP2008334133 A JP 2008334133A JP 2008334133 A JP2008334133 A JP 2008334133A JP 2010156777 A JP2010156777 A JP 2010156777A
Authority
JP
Japan
Prior art keywords
singing
section
parameter
accuracy
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008334133A
Other languages
Japanese (ja)
Other versions
JP5126055B2 (en
Inventor
Takeshi Nagano
雄 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008334133A priority Critical patent/JP5126055B2/en
Publication of JP2010156777A publication Critical patent/JP2010156777A/en
Application granted granted Critical
Publication of JP5126055B2 publication Critical patent/JP5126055B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform grading in consideration of a user's singing ability and to allow the extent of grading to be known on the basis of the user's singing ability. <P>SOLUTION: Evaluation values are computed on voice related to the user's singing of a musical piece for every section, and after the evaluation values are corrected based on the parameter accuracy of the singing user, the statistics of the respective evaluation values is taken to compute a final grading result. The parameter accuracy shows whether the voice of the ideal parameter can be accurately vocalized for every kind of ideal parameters in each section of the musical piece, i.e., shows the singing ability for the ideal parameter of the singing user. The evaluation value in the section with low parameter accuracy relatively tends to be low, but since the user with low singing ability is considered to have sung well for his or her own singing ability, the grading result is computed after correcting to make high the evaluation of such a section. The singing user's singing ability is thereby reflected in the evaluation value of the section. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ユーザが歌唱した楽曲についての採点を行う歌唱採点システムに関する。   The present invention relates to a singing scoring system for scoring a song sung by a user.

従来からユーザが歌唱した楽曲についての採点を行うことが行われており、近年では、楽曲のもつ特性に応じた精度の高い採点を行うことなども提案されている(例えば、特許文献1,2参照)。
特開2005−107333号公報 特開2007−233307号公報
In the past, scoring of music sung by a user has been performed, and in recent years, it has been proposed to perform scoring with high accuracy according to the characteristics of music (for example, Patent Documents 1 and 2). reference).
JP 2005-107333 A JP 2007-233307 A

従来の技術では、歌唱ユーザとは無関係に全て同じ基準で採点が行われており、採点結果を他の歌唱ユーザの採点結果と比較するうえでは有用であるが、その採点結果は、歌唱ユーザの歌唱力が考慮されたものではないため、歌唱ユーザの歌唱力を基準としてどの程度の結果なのか(具体的な例でいえば、歌唱力なりに上手く歌えたかなど)といったことを知るために用いることはできない。   In the conventional technology, the grading is performed based on the same standard regardless of the singing user, and it is useful in comparing the grading result with the grading result of other singing users. Singing power is not taken into consideration, so it is used to know how much the result is based on the singing user's singing power (specifically, the singing power is good enough) It is not possible.

本発明は、このような課題を解決するためになされたものであり、その目的は、歌唱ユーザの歌唱力を考慮した採点を行うことができるようにし、歌唱ユーザの歌唱力を基準としてどの程度の採点なのかといったことを知ることができるようにするための技術を提供することである。   The present invention has been made to solve such a problem, and the purpose of the present invention is to allow singing user's singing ability to be scored and to what extent the singing user's singing ability is used as a reference. It is to provide a technique for making it possible to know whether or not it is a scoring.

上記課題を解決するためには、歌唱採点システムを以下に示す第1の構成(請求項1)のようにすることが考えられる。   In order to solve the above-mentioned problem, it is conceivable that the singing scoring system has a first configuration (claim 1) shown below.

この構成においては、ユーザが楽曲を歌唱してなる音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、該区間において発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の前記理想パラメータに対する前記歌唱パラメータの正確性(区間正確性)を特定する区間正確性特定手段と、該区間正確性特定手段により特定された区間正確性それぞれについて、前記理想パラメータの種類毎に統計をとることにより、該当ユーザが前記理想パラメータで規定される音声を発声した際の正確性(パラメータ正確性)を、前記理想パラメータの種類毎に特定するパラメータ正確性特定手段と、該パラメータ正確性特定手段により特定された前記理想パラメータの種類それぞれについてのパラメータ正確性を、該パラメータ正確性を特定する契機となった楽曲を歌唱したユーザに対応づけて記憶部に記憶させるユーザ記憶手段と、ユーザが採点対象の楽曲(採点対象楽曲)を歌唱してなる音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、該区間における理想パラメータと対比することにより、区間毎の評価値を算出する区間評価手段と、該区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段が記憶部に記憶させたパラメータ正確性のうち、その評価の契機となった採点対象楽曲を歌唱した歌唱ユーザに対応するパラメータ正確性に基づいて修正する評価修正手段と、該評価修正手段による修正後の評価値それぞれについて、前記採点対象楽曲の全区間で統計をとることにより、前記歌唱ユーザが前記採点対象楽曲を歌唱した場合の採点結果を算出する歌唱採点手段と、を備えている。   In this configuration, for each of the sections obtained by dividing the voice of the song sung by the user for each predetermined section in time series, the singing parameters relating to the voice of the section are ideal based on the correct voice to be uttered in the section. Section accuracy specifying means for specifying the accuracy (section accuracy) of the singing parameter with respect to the ideal parameter for each section by comparing with the parameters, and each section accuracy specified by the section accuracy specifying means By taking statistics for each type of the ideal parameter, the accuracy (parameter accuracy) when the corresponding user utters the voice defined by the ideal parameter is determined accurately for each type of the ideal parameter. Sex specifying means, and the type and type of the ideal parameter specified by the parameter accuracy specifying means. User storage means for storing the parameter accuracy of each in the storage unit in association with the user who sang the music that triggered the parameter accuracy, and the music to be scored by the user (scoring music) For each section in the case where the voice formed by singing is divided into predetermined sections along the time series, the evaluation value for each section is obtained by comparing the singing parameters relating to the sound of the section with the ideal parameters in the section. The section evaluation means to be calculated and the evaluation value for each section calculated by the section evaluation means, among the parameter accuracy stored in the storage unit by the user storage means, the scoring target music that triggered the evaluation Evaluation correction means for correcting based on the parameter accuracy corresponding to the singing user who sang the song, and the evaluation value after correction by the evaluation correction means. For, respectively, by taking statistics on all sections of the scoring object music pieces, the singing user is provided with a singing scoring means for calculating the scoring results when singing the scoring object music pieces.

そして、前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段により記憶部に記憶させられた前記歌唱ユーザのパラメータ正確性のうち、その区間における前記理想パラメータについてのパラメータ正確性の低さに応じて評価が高くなるように修正する、ように構成されている。   And the said evaluation correction means WHEREIN: Of the parameter accuracy of the said singing user memorize | stored in the memory | storage part by the said user memory means, each evaluation value for every area calculated by the said area evaluation means WHEREIN The configuration is such that the evaluation is improved in accordance with the low parameter accuracy of the ideal parameter.

このように構成された歌唱採点システムによれば、ユーザによる楽曲の歌唱に係る音声について区間毎に評価値を算出し、これを歌唱ユーザのパラメータ正確性に基づいて修正した後、各評価値について統計をとることにより、最終的な歌唱に対する採点結果を算出することができる。   According to the singing scoring system configured as described above, after calculating the evaluation value for each section for the voice related to the song singing by the user, and correcting this based on the parameter accuracy of the singing user, By taking statistics, the scoring results for the final song can be calculated.

このパラメータ正確性は、歌唱ユーザが過去に歌唱した楽曲に基づいて特定されたものであって、楽曲の区間それぞれにおいて規定される理想パラメータの種類毎に、その理想パラメータの音声が正確に発声できるか,つまり歌唱ユーザの理想パラメータに対する歌唱力を示すものである。   This parameter accuracy is specified based on the music sung by the singing user in the past, and the voice of the ideal parameter can be accurately uttered for each type of ideal parameter defined in each section of the music. That is, it shows the singing ability with respect to the ideal parameter of the singing user.

そうすると、パラメータ正確性が低いほど歌唱力が低いことになるため、このような歌唱力の低いパラメータ正確性に対応する区間についての評価値は、相対的に低くなりがちだが、歌唱力の低いユーザにとっては歌唱力なりに上手く歌唱していることも考えられる。この場合、歌唱ユーザの歌唱力を基準にするのであれば、その区間についての評価値が低いままで採点結果が算出されてしまうことは好ましいことではない。   Then, since the singing ability is lower as the parameter accuracy is lower, the evaluation value for the section corresponding to the parameter accuracy having such a low singing ability tends to be relatively low, but the user having low singing ability For him, he can sing well as his singing ability. In this case, if the singing user's singing ability is used as a reference, it is not preferable that the scoring result is calculated while the evaluation value for the section remains low.

そこで、上記構成では、そのような区間における評価値の評価が高くなるように修正したうえで採点結果を算出することにより、その区間についての評価値が低いままで採点結果が算出されてしまうことを防止することができる。その結果、これら評価値について統計をとった採点結果を、歌唱ユーザの歌唱力を考慮した採点結果とすることができるようになる。   Therefore, in the above configuration, the scoring result is calculated while the evaluation value for the section remains low by calculating the scoring result after correcting the evaluation value in such a section to be high. Can be prevented. As a result, a scoring result obtained by taking statistics on these evaluation values can be used as a scoring result in consideration of the singing ability of the singing user.

こうして算出された採点結果は、歌唱ユーザの歌唱力が反映されているといえことから、これにより歌唱ユーザの歌唱力を基準としてどの程度の採点なのか,具体的にいえば歌唱力なりに上手く歌えていたかといったことを知るのに適したものとなっている。   Since it can be said that the singer's singing ability is reflected in the scoring result calculated in this way, this indicates how much the grading is based on the singing user's singing ability. It is suitable for knowing whether you were singing.

この構成において歌唱パラメータ,理想パラメータにおける「区間」とは、音声を時系列に沿って分割したものであり、例えば、楽曲における1以上の小節からなる区間や、音声を音の推移で表した場合における各音の区間などのことである。   In this configuration, the “section” in the singing parameters and ideal parameters is obtained by dividing the sound along the time series, for example, when the section is composed of one or more bars in the music or when the sound is represented by the transition of the sound. It is a section of each sound in.

この後者のように、音声を音の推移で表した場合における各音の区間について区間正確性を特定するためには、上記構成を以下に示すようにした第2の構成(請求項2)とすることが考えられる。   As in the latter case, in order to specify the section accuracy for each sound section in the case where the sound is represented by sound transitions, the above-described structure is configured as described below (Claim 2) and It is possible to do.

この構成において、前記区間正確性特定手段は、ユーザが楽曲を歌唱してなる音声を音の推移で表した場合における各音の区間それぞれについて、該区間における音の高さおよび長さで規定される歌唱パラメータを、同じ区間における理想パラメータと対比することにより、区間毎の前記区間正確性を特定する。   In this configuration, the section accuracy specifying means is defined by the pitch and length of the sound in each section of each sound when the sound of the user singing the music is represented by the transition of the sound. The section accuracy is specified for each section by comparing the singing parameter with the ideal parameter in the same section.

この構成であれば、各音の区間それぞれにおける音の高さおよび長さで規定される歌唱パラメータを、同じ区間における理想パラメータと対比することにより、区間毎の区間正確性を特定することができる。   With this configuration, it is possible to specify the section accuracy for each section by comparing the singing parameters defined by the pitch and length of each section of the sound with the ideal parameters in the same section. .

また、上記各構成において、区間正確性を特定する際に用いる「楽曲を歌唱してなる音声」は、あらかじめ歌唱採点システムの備える記憶部に記憶されている,または,外部から取得した歌唱データで示されるものとすればよい。   Moreover, in each said structure, "the audio | voice which sings a music" used when specifying area accuracy is memorize | stored in the memory | storage part with which a singing scoring system is equipped beforehand, or is singing data acquired from the outside. It should be shown.

この場合において、歌唱データが、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声,を特定可能であれば、上記各構成を以下に示す第3の構成(請求項3)のようにするとよい。   In this case, if the singing data can identify the user who sang the music, the sung music, and the voice singing the music, the third configuration shown below (claims) Item 3) should be used.

この構成において、前記区間正確性特定手段は、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声,を特定可能な歌唱データに基づき、該歌唱データで特定される音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、前記取得した歌唱データで特定される楽曲における同じ区間で発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の前記理想パラメータに対する前記区間正確性を特定している。そして、前記ユーザ記憶手段は、前記パラメータ正確性特定手段により特定された前記理想パラメータの種類それぞれについてのパラメータ正確性を、該パラメータ正確性を特定する契機となった歌唱データで特定されるユーザに対応づけて記憶部に記憶させる。   In this configuration, the section accuracy specifying means is specified by the singing data based on singing data that can specify the user who sang the music, the sung music, and the voice of singing the music. For each section obtained by dividing the voice into predetermined sections along the time series, the singing parameters relating to the voice of the section are ideal parameters based on the correct voice to be uttered in the same section in the music specified by the acquired singing data; By comparing, the interval accuracy with respect to the ideal parameter for each interval is specified. Then, the user storage means provides the parameter accuracy for each type of the ideal parameter specified by the parameter accuracy specifying means to the user specified by the singing data that triggered the specification of the parameter accuracy. The data is stored in the storage unit in association with each other.

この構成であれば、歌唱データで示される音声を「楽曲を歌唱してなる音声」として区間正確性を特定することができ、また、この区間正確性に基づいて特定した理想パラメータの種類それぞれについてのパラメータ正確性を、その歌唱データで特定されるユーザに対応づけて記憶部に記憶させることができる。   With this configuration, the voice indicated by the singing data can be specified as “voice singing a song” and the section accuracy can be specified, and for each type of ideal parameter specified based on this section accuracy. Can be stored in the storage unit in association with the user specified by the song data.

また、この構成においては、楽曲を歌唱するに際し、その楽曲について設定された音の高さ(いわゆるキー)または長さ(テンポ)が任意に変更されていることも考えられるため、その変更を考慮したうえで区間正確性を特定できるようにすることが望ましい。   In addition, in this configuration, when singing a song, it is possible that the pitch (so-called key) or length (tempo) set for the song is arbitrarily changed. In addition, it is desirable to be able to specify the interval accuracy.

そのための構成として、例えば、前記歌唱データが、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声だけでなく、その楽曲についてあらかじめ定められた音の高さまたは長さを変更して歌唱した場合におけるその変更後の音の高さまたは長さを特定可能なデータである場合には、上記第3の構成を以下に示す第4の構成(請求項4)のようにするとよい。   As a configuration for that purpose, for example, the singing data includes not only the user who sang the song, the sung song, and the voice of singing the song, but also the pitch or length of sound predetermined for the song. In the case of data that can specify the pitch or length of the sound after the change when the song is sung, the third configuration of the fourth configuration (Claim 4) shown below is shown. It is good to do so.

この構成において、前記区間正確性特定手段は、当該歌唱採点システム外部から取得した歌唱データが、前記変更後の音の高さまたは長さを特定可能な歌唱データである場合に、その歌唱データで特定される音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、その変更後の音の高さまたは長さとした場合における前記理想パラメータと対比することにより、区間毎の前記区間正確性を特定する。   In this configuration, when the song data acquired from outside the song scoring system is song data that can specify the pitch or length of the sound after the change, Concerning each section obtained by dividing the specified sound into predetermined sections along the time series, the singing parameter relating to the sound of the section is compared with the ideal parameter when the pitch or length of the sound is changed. Thus, the section accuracy for each section is specified.

この構成であれば、ユーザが楽曲の歌唱に際してその楽曲について設定された音の高さまたは長さを変更していたとしても、各区間の歌唱パラメータを、その変更後の音の高さまたは長さに対応する理想パラメータと対比することにより、適切な区間正確性を特定することができる。   With this configuration, even if the user has changed the pitch or length of the sound set for the song at the time of singing the song, the singing parameter of each section is changed to the pitch or length of the sound after the change. By comparing with the ideal parameter corresponding to the length, it is possible to specify an appropriate interval accuracy.

また、この構成では、さらに、歌唱データに基づいて、ユーザが楽曲の歌唱に際して音の高さまたは長さを変更したこと,および,その変更量を検出する変更検出手段を備え、区間正確性特定手段が、各区間の音声に関する歌唱パラメータを、前記変更検出手段により検出された変更量に応じた理想パラメータ(その区間における理想パラメータを変更量だけ異ならせたもの)と対比することにより、区間毎の前記区間正確性を特定する、こととすればよい。   In addition, this configuration further includes, based on the singing data, a change detection means for detecting that the user has changed the pitch or length of the music when singing the song and the amount of the change, and is provided with section accuracy identification The means compares the singing parameters relating to the sound of each section with the ideal parameter corresponding to the amount of change detected by the change detecting means (the ideal parameter in that section is changed by the amount of change) It is sufficient to specify the accuracy of the section.

また、上記各構成において区間毎の評価値を算出する際に用いる「採点対象楽曲を歌唱してなる音声」は、あらかじめ歌唱採点システムの備える記憶部に記憶されている,または,外部から取得した歌唱データで示されるものとすればよい。   In addition, the “speech made by singing the music for scoring” used when calculating the evaluation value for each section in each of the above configurations is stored in advance in the storage unit included in the singing scoring system or acquired from the outside What is necessary is just to show with song data.

この場合において、歌唱データが、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声を特定可能であれば、上記各構成を以下に示す第5の構成(請求項5)のようにするとよい。   In this case, if the singing data can identify the user who sang the scoring target music, the scoring target music that has been sung, and the voice formed by singing the scoring target music, each of the above configurations will be described below. It is preferable to use the configuration of No. 5 (Claim 5).

この構成において、前記区間評価手段は、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声,を特定可能な歌唱データで示される音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、前記取得した歌唱データで特定される楽曲における同じ区間で発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の評価値を算出している。そして、前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段が記憶部に記憶させたパラメータ正確性のうち、その評価に用いられた前記歌唱データで特定されるユーザに対応するパラメータ正確性に基づいて修正する。   In this configuration, the section evaluation means is configured to output audio indicated by singing data that can specify a user who sang the music to be scored, a music to be scored that has been sung, and a voice that sings the music to be scored. For each section when divided into predetermined sections along the series, the singing parameters relating to the sound of the section are compared with ideal parameters based on the correct sound to be uttered in the same section in the music specified by the acquired singing data As a result, the evaluation value for each section is calculated. And the said evaluation correction means is the said song data used for the evaluation among the parameter accuracy which the said user memory means memorize | stored each evaluation value for every area calculated by the said area evaluation means. The correction is made based on the parameter accuracy corresponding to the user specified in (1).

この構成であれば、歌唱データで示される音声を「採点対象楽曲を歌唱してなる音声」として区間毎の評価値を算出することができ、また、この評価値を、その歌唱データで特定されるユーザに対応するパラメータ正確性に基づいて修正することができる。   If it is this structure, the evaluation value for every area can be calculated by making the audio | voice shown by singing data into "the audio | voice which sings a music for scoring", and this evaluation value is specified by the singing data. Correction based on the parameter accuracy corresponding to the user.

また、この構成においては、外部から取得した歌唱データ全てを、区間毎の評価値の算出に用いることとすればよいが、歌唱データで特定される楽曲が採点対象楽曲である場合にのみ区間毎の評価値の算出に用いることとすればよい。   Further, in this configuration, all the singing data acquired from the outside may be used for calculation of the evaluation value for each section, but only when the music specified by the singing data is the music to be scored. It may be used to calculate the evaluation value.

そのための構成として、例えば、歌唱データが、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声だけでなく、ユーザが採点対象楽曲として歌唱した楽曲であるか否かを特定可能なデータである場合には、上記第5の構成を以下に示す第6の構成(請求項6)のようにするとよい。   As a configuration for this, for example, the singing data is not only the user who sang the grading target song, the singing target singing song, and the voice singing the grading target song, but also the user singing as the singing target song In the case of data that can specify whether or not it is a music piece, the fifth configuration may be the same as the sixth configuration (claim 6) shown below.

この構成においては、前記区間評価手段は、当該歌唱採点システム外部から取得した歌唱データが、前記採点対象楽曲として歌唱した楽曲である旨を特定可能な歌唱データである場合に、その歌唱データで示される楽曲を前記採点対象楽曲として、該楽曲についての区間毎の評価値を算出する。   In this configuration, the section evaluation means indicates the singing data when the singing data acquired from outside the singing scoring system is singing data that can be specified as the singing target music. An evaluation value for each section for the music is calculated using the music to be scored as the scoring music.

この構成であれば、歌唱データで特定される楽曲が採点対象楽曲である場合にのみ区間毎の評価値を算出し、この評価値に基づいて最終的な採点結果を算出することができる。   With this configuration, the evaluation value for each section can be calculated only when the music specified by the singing data is the music to be scored, and the final scoring result can be calculated based on this evaluation value.

また、上記第5,第6の構成においては、楽曲を歌唱するに際し、その楽曲について設定された音の高さ(いわゆるキー)または長さ(テンポ)が任意に変更されていることも考えられるため、その変更を考慮したうえで区間正確性を特定できるようにすることが望ましい。   In the fifth and sixth configurations, when a song is sung, the pitch (so-called key) or length (tempo) set for the song may be arbitrarily changed. Therefore, it is desirable to be able to specify the interval accuracy in consideration of the change.

そのための構成として、例えば、前記歌唱データが、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声だけでなく、その楽曲についてあらかじめ定められた音の高さまたは長さを変更して歌唱した場合におけるその変更後の音の高さまたは長さを特定可能なデータである場合には、上記第5,6の構成を以下に示す第7の構成(請求項7)のようにするとよい。   As a configuration for that purpose, for example, the singing data includes not only the user who sang the song, the sung song, and the voice of singing the song, but also the pitch or length of sound predetermined for the song. In the case where the singing is performed by changing the pitch, the seventh and sixth configurations shown below are used as the fifth and sixth configurations when the data can specify the pitch or length of the changed sound. ).

この構成において、前記区間評価手段は、当該歌唱採点システム外部から取得した歌唱データが、前記変更後の音の高さまたは長さを特定可能な歌唱データである場合に、該歌唱データで示される音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、その変更後の音の高さまたは長さとした場合における前記理想パラメータと対比することにより、区間毎の評価値を算出する。   In this configuration, the section evaluation means is indicated by the singing data when the singing data acquired from outside the singing scoring system is singing data that can specify the pitch or length of the sound after the change. By comparing the singing parameters relating to the sound of the section for each section when the sound is divided into predetermined sections along the time series with the ideal parameters when the sound pitch or length after the change is used The evaluation value for each section is calculated.

この構成であれば、ユーザが楽曲の歌唱に際してその楽曲について設定された音の高さまたは長さを変更していたとしても、各区間の歌唱パラメータを、その変更後の音の高さまたは長さに対応する理想パラメータと対比することにより、適切な区間毎の評価値を算出することができる。   With this configuration, even if the user has changed the pitch or length of the sound set for the song at the time of singing the song, the singing parameter of each section is changed to the pitch or length of the sound after the change. By comparing with the ideal parameter corresponding to the length, an evaluation value for each appropriate section can be calculated.

また、上記各構成における「区間正確性」は、区間毎の理想パラメータに対する歌唱パラメータの正確性,換言すれば理想パラメータに対する歌唱パラメータの類似度であるため、これから特定される「パラメータ正確性」についても、その区間正確性で規定される類似度の統計をとることで特定できる。   In addition, since the “section accuracy” in each of the above configurations is the accuracy of the singing parameter with respect to the ideal parameter for each section, in other words, the degree of similarity of the singing parameter with respect to the ideal parameter, Can also be identified by taking statistics of similarity defined by the interval accuracy.

具体的な統計の手法としては、例えば、区間正確性それぞれを理想パラメータの種類毎に平均化することが考えられ、このための構成としては、例えば、上記各構成を以下に示す第8の構成(請求項8)のようにするとよい。   As a specific statistical method, for example, it is conceivable to average each section accuracy for each type of ideal parameter. As a configuration for this purpose, for example, the above-described configuration is an eighth configuration shown below. (Claim 8) is preferable.

この構成において、 前記パラメータ正確性特定手段は、前記区間正確性特定手段により特定された区間正確性それぞれを、前記理想パラメータの種類毎に平均化することにより、該当ユーザにおける前記パラメータ正確性を、前記理想パラメータの種類毎に特定する。   In this configuration, the parameter accuracy specifying means averages each section accuracy specified by the section accuracy specifying means for each type of the ideal parameter, thereby obtaining the parameter accuracy for the corresponding user, It is specified for each type of ideal parameter.

この構成であれば、区間正確性それぞれについて理想パラメータの種類毎に平均化することにより、理想パラメータの種類毎のパラメータ正確性を特定することができる。   With this configuration, it is possible to specify the parameter accuracy for each type of ideal parameter by averaging each section accuracy for each type of ideal parameter.

また、上記各構成における区間毎の評価値は、各区間における歌唱パラメータを、同じ区間における理想パラメータと対比することにより算出したものであればよく、その具体的な値については特に限定されない。   Moreover, the evaluation value for each section in each of the above-described configurations is not particularly limited as long as it is calculated by comparing the singing parameter in each section with the ideal parameter in the same section.

例えば、歌唱パラメータの理想パラメータに対する類似度やズレ量を示す値として評価値を算出することが考えられ、これらの場合、こうして算出した評価値を、該当パラメータ正確性が低いほど採点結果に占める評価値としての重み付けが軽くなるように修正したうえで、これらの統計をとった採点結果が算出されることとなる。   For example, it is conceivable to calculate an evaluation value as a value indicating the degree of similarity or deviation of the singing parameter with respect to the ideal parameter. In these cases, the evaluation value calculated in this way is the evaluation that occupies the scoring result as the parameter accuracy is lower. After correcting so that the weighting as a value becomes light, a scoring result based on these statistics is calculated.

これらの場合における統計のとり方としては、評価値として類似度を算出する場合であれば、例えば、類似度を平均化することが考えられ、この平均化された類似度を採点結果とすればよい。また、評価値としてズレ量を算出する場合であれば、例えば、評価値全てを基準となる点数(満点)から減算して残された値を採点結果とすればよい。   As a method of taking statistics in these cases, if similarity is calculated as an evaluation value, for example, averaging the similarities may be considered, and the averaged similarity may be used as a scoring result. . Further, in the case of calculating a deviation amount as an evaluation value, for example, a value left by subtracting all evaluation values from a reference score (full score) may be used as a scoring result.

この後者のようにズレ量を評価値として算出する場合の具体的な構成としては、上記各構成を以下に示す第9の構成(請求項9)のようにすることが考えられる。   As a specific configuration when the amount of deviation is calculated as an evaluation value as in the latter case, it is conceivable to make each of the above configurations as a ninth configuration (claim 9).

この構成において、前記区間評価手段は、各区間の音声に関する歌唱パラメータを、該区間における理想パラメータと対比することにより、該理想パラメータに対する前記歌唱パラメータのズレ量を示す値を評価値として区間毎に算出して、前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、該当する前記理想パラメータについてのパラメータ正確性に応じて低くなるように修正して、前記歌唱採点手段は、前記評価修正手段による修正後の評価値全てを基準点数から減算することにより、該減算後に残った点数を、前記歌唱ユーザが前記採点対象楽曲を歌唱した場合の採点結果として算出する。   In this configuration, the section evaluation means compares the singing parameters relating to the voices of each section with the ideal parameters in the section, and sets a value indicating the amount of deviation of the singing parameter with respect to the ideal parameter as an evaluation value for each section. The evaluation correction means calculates and corrects each evaluation value for each section calculated by the section evaluation means so as to become lower according to the parameter accuracy for the corresponding ideal parameter, and the singing scoring The means subtracts all of the evaluation values corrected by the evaluation correction means from the reference score, thereby calculating the score remaining after the subtraction as a scoring result when the singing user sings the scoring target music.

この構成であれば、理想パラメータに対する歌唱パラメータのズレ量である評価値の合計を基準点数から減算し、そうして残された値を採点結果として算出することができる。   If it is this structure, the sum total of the evaluation value which is the deviation | shift amount of the song parameter with respect to an ideal parameter can be subtracted from a reference | standard score, and the value left in that way can be calculated as a scoring result.

なお、上記各構成における歌唱採点システムは、1つの装置として構成してもよいし、それぞれ通信可能に接続された複数の装置が協調して動作するように構成してもよい。   In addition, the singing scoring system in each said structure may be comprised as one apparatus, and may be comprised so that the several apparatus each connected so that communication may operate | move cooperatively.

また、上記課題を解決するためには、上記第1〜第9のいずれかにおける全ての手段として機能させるための各種処理手順をコンピュータシステムに実行させるためのプログラム(請求項10)としてもよい。   Moreover, in order to solve the said subject, it is good also as a program (Claim 10) for making a computer system perform the various process procedures for functioning as all the means in said 1st-9th.

このプログラムを実行するコンピュータシステムであれば、上記第1〜第9のいずれかに係る歌唱採点システムの一部を構成することができる。   If it is a computer system that executes this program, it is possible to configure a part of the singing scoring system according to any of the above first to ninth.

なお、上述したプログラムは、コンピュータシステムによる処理に適した命令の順番付けられた列からなるものであって、各種記録媒体や通信回線を介して歌唱採点システム,各サーバや、これを利用するユーザ等に提供されるものである。   The above-described program is composed of an ordered sequence of instructions suitable for processing by a computer system, and includes a singing scoring system, each server, and a user who uses this through various recording media and communication lines. Etc. are provided.

以下に本発明の実施形態を図面と共に説明する。
(1)全体構成
カラオケシステム1は、周知のコンピュータシステムからなるサーバ2と、1以上のカラオケ装置3それぞれとが、ネットワーク100を介して通信可能に接続されてなるものである。
Embodiments of the present invention will be described below with reference to the drawings.
(1) Overall Configuration The karaoke system 1 is configured such that a server 2 composed of a well-known computer system and each of one or more karaoke apparatuses 3 are communicably connected via a network 100.

サーバ2は、サーバ全体を制御する制御部21,各種情報を記憶する記憶部23,ネットワーク100を介した通信を制御する通信部25,キーボードやディスプレイなどからなるユーザインタフェース(U/I)部27,記録メディアを介して情報を入出力するメディアドライブ29などを備えており、本発明の難易度推定システムとしての機能が実装されている。   The server 2 includes a control unit 21 that controls the entire server, a storage unit 23 that stores various information, a communication unit 25 that controls communication via the network 100, and a user interface (U / I) unit 27 including a keyboard and a display. , A media drive 29 for inputting / outputting information via a recording medium and the like, and a function as a difficulty level estimation system of the present invention is implemented.

カラオケ装置3は、装置全体を制御する制御部31,演奏楽曲の伴奏内容および歌詞を示す楽曲データや映像データなどを記憶する記憶部33,ネットワーク100を介した通信を制御する通信部35,各種映像の表示を行う表示部41,複数のキー・スイッチなどからなる操作部43,マイク45からの音声の入力とスピーカ47からの音声の出力とを制御する音声入出力部49などを備えている。
(2)サーバ2による処理
以下に、サーバ2の制御部21が内蔵メモリまたは記憶部23に記憶されたプログラムに従って実行する各種処理について説明する。
(2−1)履歴蓄積処理
はじめに、いずれかのカラオケ装置3から歌唱データを受信する(s110)ことにより開始される履歴蓄積処理の処理手順を図2に基づいて説明する。
The karaoke device 3 includes a control unit 31 that controls the entire device, a storage unit 33 that stores music data and video data indicating the accompaniment content and lyrics of the performance music, a communication unit 35 that controls communication via the network 100, and the like. A display unit 41 for displaying video, an operation unit 43 including a plurality of keys and switches, a voice input / output unit 49 for controlling voice input from the microphone 45 and voice output from the speaker 47, and the like are provided. .
(2) Processing by Server 2 Hereinafter, various processing executed by the control unit 21 of the server 2 according to a program stored in the built-in memory or the storage unit 23 will be described.
(2-1) History Accumulating Process First, the processing procedure of the history accumulating process started by receiving singing data from any karaoke apparatus 3 (s110) will be described with reference to FIG.

この歌唱データは、カラオケ装置3のユーザがカラオケ装置3に対するログイン操作を行ったうえで、そのユーザが楽曲を歌唱した後に送信されてくるデータであり、その歌唱に係る音声の時系列に沿った音高の推移パターンを示すものである。   This singing data is data that is transmitted after the user of the karaoke device 3 performs a login operation to the karaoke device 3 and then sings the music, and the singing data is in time series of voices related to the singing. It shows the transition pattern of the pitch.

また、この歌唱データは、その歌唱に係る楽曲およびユーザそれぞれの識別情報(楽曲番号,ユーザID)と、その歌唱時にカラオケ装置3側で設定されていたキーを示すキー情報と、その歌唱に係る楽曲を採点するか否かを示す採点情報と、が付加された状態で送信されてくる。   Moreover, this song data relates to the song related to the song and identification information (music number, user ID) of the user, key information indicating the key set on the karaoke device 3 side at the time of the song, and the song The score information indicating whether or not to score the music is added and transmitted.

この履歴蓄積処理が起動されると、まず、その起動に際して受信した歌唱データに付加された楽曲番号に基づき、その楽曲(以降「歌唱楽曲」という)において発声すべき正しい音声を示す理想データが、記憶部23における理想データ用の記憶領域にあらかじめ記憶されている複数種類の理想データの中から読み出される(s120)。   When this history accumulation process is activated, first, ideal data indicating the correct sound to be uttered in the song (hereinafter referred to as “song song”) based on the song number added to the song data received at the time of activation, The data is read from a plurality of types of ideal data stored in advance in the storage area for ideal data in the storage unit 23 (s120).

次に、上記s120にて読み出された理想データが、本履歴蓄積処理の起動に際して受信された歌唱データに付加されていたキー情報に基づいて変更される(s130)。   Next, the ideal data read in s120 is changed based on the key information added to the singing data received when starting the history accumulation process (s130).

ここでは、歌唱データに付加されていたキー情報が、歌唱楽曲においてあらかじめ定められたキー(原曲キー)と異なる設定に変更された旨を示すものである場合にのみ、上記s120にて読み出された理想データで示される音声が変更される。   Here, only when the key information added to the singing data indicates that the setting is different from a predetermined key (original music key) in the singing song, the reading is performed in the above s120. The voice indicated by the ideal data is changed.

この変更は、理想データで示される音声を各音(本実施形態では音符)の区間毎に分割した単位区間それぞれにおいて発生すべき音声に関する理想パラメータが、キー情報で示されるキーに応じたパラメータとなるように修正することで実現される。具体的にいえば、単位区間それぞれにおける理想パラメータが、そのキー設定で歌唱楽曲が再生された場合における理想パラメータに変更される。   In this change, the ideal parameter relating to the voice to be generated in each unit section obtained by dividing the voice represented by the ideal data for each section of the sound (note in this embodiment) is a parameter corresponding to the key represented by the key information. It is realized by correcting so that Specifically, the ideal parameter in each unit section is changed to the ideal parameter when a song is played with the key setting.

次に、本履歴蓄積処理の起動に際して受信した歌唱データで示される音声と、上記s120にて読み出されて上記s130にて変更された理想データで示される音声と、の対比により、音声を時系列に沿って所定区間毎に分割した単位区間毎の区間正確性が特定される(s140)。   Next, by comparing the voice indicated by the singing data received at the start of the history accumulation process with the voice indicated by the ideal data read in s120 and changed in s130, the voice is Section accuracy for each unit section divided for each predetermined section along the series is specified (s140).

ここでは、歌唱データで示される音声の単位区間それぞれについて、その単位区間の音声に関する歌唱パラメータが、理想データで示される音声の同じ単位区間において発生すべき音声に関する理想パラメータと対比され、これにより、単位区間毎の理想パラメータに対する歌唱パラメータの正確性(以降「区間正確性」という)が特定される。   Here, for each unit section of the voice indicated by the singing data, the singing parameter regarding the voice of the unit section is compared with the ideal parameter regarding the voice to be generated in the same unit section of the voice indicated by the ideal data. The accuracy of the singing parameter with respect to the ideal parameter for each unit section (hereinafter referred to as “section accuracy”) is specified.

具体的には、理想パラメータに対する歌唱パラメータの音高としての近似度合いや、音高が変化するタイミングの時間的な近似度合いが、その単位区間における区間正確性として特定され、本実施形態では、その近似度合いが所定のしきい値以上である場合を区間正確性「Yes」,しきい値未満である場合を区間正確性「No」として特定するように構成されている(図3参照)。なお、この近似度合に応じた区間正確性として、「0」〜「1」の間の値を特定することとしてもよい。   Specifically, the approximation degree as the pitch of the singing parameter with respect to the ideal parameter and the temporal approximation degree of the timing when the pitch changes are specified as the section accuracy in the unit section. A case where the degree of approximation is equal to or greater than a predetermined threshold is specified as a section accuracy “Yes”, and a case where the degree of approximation is less than the threshold is specified as a section accuracy “No” (see FIG. 3). Note that a value between “0” and “1” may be specified as the interval accuracy according to the degree of approximation.

次に、本履歴蓄積処理の起動に際して受信した歌唱データに付加されたユーザIDに対応するユーザの歌唱履歴データが、記憶部23における歌唱履歴データ用の記憶領域から読み出される(s150)。   Next, the singing history data of the user corresponding to the user ID added to the singing data received when starting the history accumulating process is read from the singing history data storage area in the storage unit 23 (s150).

この歌唱履歴データとは、あらかじめユーザ登録されたユーザが理想パラメータで規定される音声を発声した場合の正確性(以降「パラメータ正確性」という)を理想パラメータの種類毎に集計した結果を示すデータであり、該当ユーザそれぞれのユーザIDに対応づけられた状態で記憶部23に記憶されている(図4参照)。この歌唱履歴データは、理想パラメータそれぞれのパラメータ正確性に基づいて、該当ユーザがどの程度楽曲を正確に歌唱できていたのかを規定するものであり、各パラメータ正確性としての値が大きいほど、該当ユーザが理想パラメータに従った歌唱を正確に行えることを示すものとなる。   This singing history data is data indicating the result of totaling the accuracy (hereinafter referred to as “parameter accuracy”) when the user registered in advance utters the voice defined by the ideal parameter for each type of ideal parameter. And stored in the storage unit 23 in a state associated with each user ID of the corresponding user (see FIG. 4). This singing history data specifies how accurately the user was able to sing a song based on the parameter accuracy of each ideal parameter. The greater the value as each parameter accuracy, the more applicable This indicates that the user can accurately sing according to the ideal parameters.

なお、このs150の時点で該当するユーザIDに対応するユーザの歌唱履歴データが記憶部23に記憶されていない場合、このs150では、データの実体がない(つまり集計前の)歌唱履歴データが、該当するユーザIDに対応するものとして生成されたうえで、これが読み出される。   In addition, when the user's singing history data corresponding to the corresponding user ID is not stored in the storage unit 23 at the time of s150, in s150, the singing history data having no data substance (that is, before counting) After being generated as corresponding to the corresponding user ID, this is read out.

そして、上記s140にて特定された単位区間毎の区間正確性に基づいて、上記s150にて読み出された歌唱履歴データが更新される(s160)。   Then, the singing history data read in s150 is updated based on the section accuracy for each unit section specified in s140 (s160).

ここで、上記s140にて読み出された歌唱履歴データで示される単位区間毎の区間正確性は、図4に示すように、音高(音の高さ)と音価(音の長さ)とで規定される理想パラメータ毎に、その理想パラメータに対応する単位区間の区間正確性が「Yes」と特定された特定回数と、区間正確性の特定が行われた総回数と、の比を示すものとなっている。   Here, the section accuracy for each unit section indicated by the singing history data read in s140 is as follows. As shown in FIG. 4, the pitch (sound pitch) and tone value (sound length) are shown. For each of the ideal parameters specified in the above, the ratio between the specific number of times that the unit accuracy corresponding to the ideal parameter is specified as “Yes” and the total number of times that the accuracy of the interval is specified is calculated. It is meant to be shown.

そのため、このs160では、上記s140にて特定された単位区間毎の区間正確性のそれぞれについて、その区間正確性が「Yes」であれば、その単位区間に対応する理想パラメータの特定回数および総回数の両方(分子,分母)に「1」が加算され、また、区間正確性が「No」であれば、同理想パラメータの総回数(分母)のみに「1」が加算される。こうして、該当ユーザの区間正確性それぞれが理想パラメータの種類毎に平均化され、そのユーザにおける理想パラメータの種類毎にパラメータ正確性が集計された状態となる。   Therefore, in this s160, if the section accuracy for each of the unit sections specified in s140 is “Yes”, the specified number and the total number of ideal parameters corresponding to the unit section “1” is added to both (numerator and denominator), and if the interval accuracy is “No”, “1” is added only to the total number of times of the ideal parameter (denominator). Thus, each section accuracy of the corresponding user is averaged for each type of ideal parameter, and the parameter accuracy is tabulated for each type of ideal parameter for that user.

なお、区間正確性それぞれを「0」〜「1」の間の値として特定されるようにした場合、このs160では、理想パラメータの種類毎に区間正確性を平均化することにより、パラメータ正確性を集計することとすればよい。
(2−2)歌唱採点処理
続いて、いずれかのカラオケ装置3から歌唱データとして、歌唱に係る楽曲を採点する旨を示す採点情報の付加されたものを受信する(s210)ことにより、上記履歴蓄積処理と並行して実行される歌唱採点処理の処理手順を図5に基づいて説明する。
When each section accuracy is specified as a value between “0” and “1”, in this s160, the section accuracy is averaged for each type of ideal parameter, thereby obtaining the parameter accuracy. Should be tabulated.
(2-2) Singing scoring process Subsequently, the history data is received from one of the karaoke apparatuses 3 as singing data to which scoring information indicating that the music related to the singing is to be scored (s210). The procedure of the singing scoring process executed in parallel with the accumulation process will be described with reference to FIG.

この歌唱採点処理が起動されると、まず、本歌唱採点処理の起動に先立って受信した歌唱データに付加されたユーザIDのユーザ(以降「歌唱ユーザ」という)に対応づけて記憶部23に記憶されている歌唱履歴データが読み出される(s210)。   When this singing scoring process is activated, first, it is stored in the storage unit 23 in association with the user of the user ID (hereinafter referred to as “singing user”) added to the singing data received prior to the activation of this singing scoring process. The singing history data being read is read (s210).

次に、本歌唱採点処理の起動に際して受信した歌唱データに付加された楽曲の楽曲番号に基づき、その楽曲(以降「採点対象楽曲」という)において発声すべき正しい音声を示す理想データが、記憶部23における理想データ用の記憶領域にあらかじめ記憶されている複数種類の理想データの中から読み出される(s220)。   Next, based on the song number of the song added to the song data received when starting the singing scoring process, ideal data indicating the correct voice to be uttered in the song (hereinafter referred to as “scoring song”) is stored in the storage unit. 23 is read out from a plurality of types of ideal data stored in advance in the ideal data storage area 23 (s220).

次に、上記s220にて読み出された理想データが、本歌唱採点処理の起動に際して受信した歌唱データに付加されていたキー情報に基づいて変更される(s230)。   Next, the ideal data read in s220 is changed based on the key information added to the singing data received when the singing grading process is started (s230).

ここでは、歌唱データに付加されていたキー情報が、歌唱楽曲においてあらかじめ定められたキー(原曲キー)と異なる設定であった旨を示すものである場合にのみ、上記s220にて読み出された理想データで示される音声が変更される。   Here, only when the key information added to the song data indicates a setting different from a predetermined key (original song key) in the song song, it is read out in s220. The voice indicated by the ideal data is changed.

この変更は、理想データで示される音声を各音(本実施形態では音符)の区間毎に分割した単位区間それぞれにおいて発生すべき音声に関する理想パラメータが、キー情報で示されるキーに応じたパラメータとなるように修正することで実現される。具体的にいえば、単位区間それぞれにおける理想パラメータが、そのキー設定で歌唱楽曲が再生された場合における理想パラメータに変更される。   In this change, the ideal parameter relating to the voice to be generated in each unit section obtained by dividing the voice represented by the ideal data for each section of the sound (note in this embodiment) is a parameter corresponding to the key represented by the key information. It is realized by correcting so that Specifically, the ideal parameter in each unit section is changed to the ideal parameter when a song is played with the key setting.

次に、本歌唱採点処理の起動に際して受信した歌唱データで示される音声と、上記s220にて読み出されて上記s230にて変更された理想データで示される音声と、の対比により、音声を時系列に沿って所定区間毎に分割した単位区間毎の評価値が特定される(s240)。   Next, by comparing the voice indicated by the singing data received when starting the singing scoring process with the voice indicated by the ideal data read in s220 and changed in s230, the voice is An evaluation value for each unit section divided for each predetermined section along the series is specified (s240).

ここでは、歌唱データで示される音声の単位区間それぞれについて、その単位区間の音声に関する歌唱パラメータが、理想データで示される音声の同じ単位区間において発生すべき音声に関する理想パラメータと対比され、これにより、単位区間毎の評価値が算出される。本実施形態では、各単位区間i(i=1〜I)において、理想パラメータに対する歌唱パラメータのズレ量を示す値が評価値diとして特定される。   Here, for each unit section of the voice indicated by the singing data, the singing parameter regarding the voice of the unit section is compared with the ideal parameter regarding the voice to be generated in the same unit section of the voice indicated by the ideal data. An evaluation value for each unit section is calculated. In the present embodiment, in each unit section i (i = 1 to I), a value indicating the deviation amount of the singing parameter with respect to the ideal parameter is specified as the evaluation value di.

なお、このs240では、各単位区間iにおいて、理想パラメータに対する歌唱パラメータの類似度を示す値を、この類似度が大きいほど高い評価であることを示す評価値diとして特定することとしてもよい。   In s240, a value indicating the similarity of the singing parameter to the ideal parameter in each unit section i may be specified as an evaluation value di indicating that the higher the similarity is, the higher the evaluation is.

次に、上記s240にて算出された評価値それぞれが、上記s212にて読み出された歌唱履歴データで示されるパラメータ正確性に基づいて修正される(s250)。   Next, each evaluation value calculated in s240 is corrected based on the parameter accuracy indicated by the singing history data read in s212 (s250).

ここでは、上記s240にて算出され区間毎の評価値diそれぞれに対し、歌唱ユーザのパラメータ正確性のうち、その区間における理想パラメータについてのパラメータ正確性P(i)に応じた重み付けが行われる。具体的には、評価値diに対応するパラメータ正確性P(i)が小さい,つまり理想パラメータに従った歌唱を正確に行えない状態であるほど重み付けが小さくなるように評価値diが修正される。本実施形態のように、理想パラメータに対する歌唱パラメータのズレ量を評価値diとして算出している場合であれば、評価値diが該当するパラメータ正確性P(i)との積を示す値(=P(i)・di)に修正される。   Here, each evaluation value di for each section calculated in s240 is weighted according to the parameter accuracy P (i) for the ideal parameter in the section among the parameter accuracy of the singing user. Specifically, the evaluation value di is corrected so that the weight becomes smaller as the parameter accuracy P (i) corresponding to the evaluation value di is smaller, that is, the singing according to the ideal parameter cannot be performed accurately. . If the deviation amount of the singing parameter with respect to the ideal parameter is calculated as the evaluation value di as in the present embodiment, the value indicating the product of the evaluation value di and the corresponding parameter accuracy P (i) (= P (i) · di).

次に、上記s250にて修正された評価値diそれぞれについて、採点対象楽曲の全区間で統計をとった値が、歌唱ユーザが採点対象楽曲を歌唱した場合の採点結果として算出される(s260)。   Next, for each evaluation value di corrected in the above s250, a value obtained by statistic over the entire section of the scoring target music is calculated as a scoring result when the singing user sings the scoring target music (s260). .

ここでは、上記250により修正された評価値全てを基準点数100から減算することにより、そうして減算した後に残った点数が、歌唱ユーザが採点対象楽曲を歌唱した場合の採点結果として算出される。   Here, by subtracting all the evaluation values corrected by the above 250 from the reference score 100, the score remaining after the subtraction is calculated as a scoring result when the singing user sings the scoring target music. .

具体的な算出方法としては、評価値それぞれをdiとし、その評価値に対応する区間における理想パラメータについてのパラメータ正確性をP(i)とし、基準点数を100とした場合に、以下に示す式1により算出することが考えられる。   As a specific calculation method, when each evaluation value is di, the parameter accuracy for the ideal parameter in the section corresponding to the evaluation value is P (i), and the reference score is 100, the following equation is used: It is conceivable to calculate by 1.

Figure 2010156777
なお、評価値diとして類似度を特定するように構成した場合には、全ての評価値diを平均化した値を採点結果として算出することとすればよい。
Figure 2010156777
When the similarity is specified as the evaluation value di, a value obtained by averaging all the evaluation values di may be calculated as a scoring result.

そして、上記s260にて算出された採点結果が、歌唱データを送信してきたカラオケ装置3へと返信された後(s270)、本歌唱採点処理が終了する。この採点結果を受信したカラオケ装置3では、その採点結果の表示部41による表示が行われることとなる。
(3)作用,効果
このように構成されたカラオケシステム1のサーバ2によれば、ユーザによる楽曲の歌唱に係る音声について区間毎に評価値を算出し(図5のs240)、これを歌唱ユーザのパラメータ正確性に基づいて修正した後(同図s250)、各評価値について統計をとることにより、最終的な歌唱に対する採点結果を算出することができる(同図s260)。
And after the scoring result calculated in said s260 is returned to the karaoke apparatus 3 which has transmitted song data (s270), this singing scoring process is complete | finished. In the karaoke apparatus 3 that has received the scoring result, the scoring result is displayed on the display unit 41.
(3) Action and Effect According to the server 2 of the karaoke system 1 configured as described above, an evaluation value is calculated for each section of the voice related to the song sung by the user (s240 in FIG. 5), and this is the singing user. After correcting based on the parameter accuracy of (No. s250 in the figure), by taking statistics about each evaluation value, it is possible to calculate the scoring result for the final singing (s260 in the figure).

このパラメータ正確性は、歌唱ユーザが過去に歌唱した楽曲に基づいて特定されたものであって(図2のs110〜s160)、楽曲の区間それぞれにおいて規定される理想パラメータの種類毎に、その理想パラメータの音声が正確に発声できるか,つまり歌唱ユーザの理想パラメータに対する歌唱力を示すものである(図3参照)。   This parameter accuracy is specified based on the music sung by the singing user in the past (s110 to s160 in FIG. 2), and is ideal for each type of ideal parameter defined in each section of the music. It shows whether the voice of the parameter can be uttered correctly, that is, the singing ability for the ideal parameter of the singing user (see FIG. 3).

そうすると、パラメータ正確性が低いほど歌唱力が低いことになるため、このような歌唱力の低いパラメータ正確性に対応する区間についての評価値は、相対的に低くなりがちだが、歌唱力の低いユーザにとっては歌唱力なりに上手く歌唱していることも考えられる。この場合、歌唱ユーザの歌唱力を基準にするのであれば、その区間についての評価値が低いままで採点結果が算出されてしまうことは好ましいことではない。   Then, since the singing ability is lower as the parameter accuracy is lower, the evaluation value for the section corresponding to the parameter accuracy having such a low singing ability tends to be relatively low, but the user having low singing ability For him, he can sing well as his singing ability. In this case, if the singing user's singing ability is used as a reference, it is not preferable that the scoring result is calculated while the evaluation value for the section remains low.

そこで、上記構成では、このような区間における評価値の評価が高くなるように修正したうえで採点結果を算出することにより(図5のs250,s260)、その区間についての評価値が低いままで採点結果が算出されてしまうことを防止することができる。その結果、これら評価値について統計をとった採点結果を、歌唱ユーザの歌唱力を考慮した採点結果とすることができるようになる。   Therefore, in the above configuration, by correcting the evaluation value in such a section so that the evaluation value becomes high and calculating the scoring result (s250 and s260 in FIG. 5), the evaluation value for that section remains low. It is possible to prevent the scoring result from being calculated. As a result, a scoring result obtained by taking statistics on these evaluation values can be used as a scoring result in consideration of the singing ability of the singing user.

こうして算出された採点結果は、歌唱ユーザの歌唱力が反映されているといえことから、これにより歌唱ユーザの歌唱力を基準としてどの程度の採点なのか,具体的にいえば歌唱力なりに上手く歌えていたかといったことを知るのに適したものとなっている。   Since it can be said that the singer's singing ability is reflected in the scoring result calculated in this way, this indicates how much the grading is based on the singing user's singing ability. It is suitable for knowing whether you were singing.

また、上記実施形態においては、各音の区間それぞれにおける音の高さおよび長さで規定される歌唱パラメータを、同じ区間における理想パラメータと対比することにより、区間毎の区間正確性を特定することができる(図2のs140)。   Further, in the above embodiment, the section accuracy for each section is specified by comparing the singing parameters defined by the pitch and length of each section of the sound with the ideal parameters in the same section. (S140 in FIG. 2).

また、上記実施形態においては、歌唱データで示される音声を「楽曲を歌唱してなる音声」として区間正確性を特定することができ(図2のs140)、また、この区間正確性に基づいて特定した理想パラメータの種類それぞれについてのパラメータ正確性を、その歌唱データで特定されるユーザに対応づけて記憶部23に記憶させる(歌唱履歴データを更新する)ことができる(図2のs160)。   Moreover, in the said embodiment, the area | region accuracy can be specified as the audio | voice shown by song data as "the audio | voice which sings a music" (s140 of FIG. 2), and based on this area accuracy. The parameter accuracy for each of the identified ideal parameter types can be stored in the storage unit 23 (update the singing history data) in association with the user specified by the singing data (s160 in FIG. 2).

また、上記実施形態においては、ユーザが楽曲の歌唱に際してその楽曲について設定された音の高さまたは長さを変更していたとしても、各区間の歌唱パラメータを、その変更後の音の高さまたは長さに対応する理想パラメータに変更することができるため(図2のs130)、こうして変更した理想パラメータと対比することにより、適切な区間正確性を特定することができる(同図s140)。   Moreover, in the said embodiment, even if the user has changed the pitch or length of the sound set for the song at the time of singing the song, the singing parameter of each section is changed to the pitch of the sound after the change. Alternatively, since it can be changed to an ideal parameter corresponding to the length (s130 in FIG. 2), appropriate section accuracy can be specified by comparing with the ideal parameter thus changed (s140 in FIG. 2).

また、上記実施形態においては、歌唱データで示される音声を「採点対象楽曲を歌唱してなる音声」として区間毎の評価値を特定することができ(図5のs240)、また、この評価値を、その歌唱データで特定されるユーザに対応するパラメータ正確性に基づいて修正することができる(同図s250)。   Moreover, in the said embodiment, the audio | voice shown by song data can specify the evaluation value for every area as "the audio | voice formed by singing a music for scoring" (s240 of FIG. 5), and this evaluation value Can be corrected based on the parameter accuracy corresponding to the user specified by the song data (s250 in the figure).

また、上記実施形態においては、歌唱データで特定される楽曲が採点対象楽曲である場合にのみ歌唱採点処理を起動し(図5参照)、区間毎に算出した評価値に基づいて最終的な採点結果を算出することができる。   Moreover, in the said embodiment, a singing scoring process is started only when the music specified by song data is a music for scoring (refer to Drawing 5), and final scoring is performed based on the evaluation value computed for every section. The result can be calculated.

また、上記実施形態においては、ユーザが採点対象楽曲の歌唱に際してその楽曲について設定された音の高さまたは長さを変更していたとしても、各区間の歌唱パラメータを、その変更後の音の高さまたは長さに対応する理想パラメータに変更することができるため(図5のs230)、こうして変更した理想パラメータと対比することにより、適切な区間毎の評価値を算出することができる(同図s240)。   Moreover, in the said embodiment, even if the user has changed the pitch or length of the sound set for the music at the time of singing the scoring target music, the singing parameters of each section are changed to the sound parameters after the change. Since it can be changed to an ideal parameter corresponding to the height or length (s230 in FIG. 5), an evaluation value for each appropriate section can be calculated by comparing with the ideal parameter thus changed (same as above). Figure s240).

また、上記実施形態においては、区間正確性それぞれについて理想パラメータの種類毎に平均化することにより(図2のs160)、理想パラメータの種類毎のパラメータ正確性を特定することができる。   Further, in the above embodiment, the parameter accuracy for each type of ideal parameter can be specified by averaging each section accuracy for each type of ideal parameter (s160 in FIG. 2).

また、上記実施形態においては、理想パラメータに対する歌唱パラメータのズレ量である評価値の合計を基準点数から減算し、そうして残された値を採点結果として算出することができる(図5のs260)。
(4)変形例
以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
Moreover, in the said embodiment, the sum total of the evaluation value which is the deviation | shift amount of the singing parameter with respect to an ideal parameter is subtracted from a reference | standard score, and the remaining value can be calculated as a scoring result (s260 of FIG. 5). ).
(4) Modifications The embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment, and can take various forms as long as they belong to the technical scope of the present invention. Needless to say.

例えば、上記実施形態においては、カラオケシステム1のサーバ2が本発明の歌唱採点システムとして構成されている場合を例示したが、このサーバ2による処理の一部,例えば履歴蓄積処理の一部または全部や歌唱採点処理の一部または全部を、カラオケ装置3など他の装置と協調して実施することにより、全体として歌唱採点システムとして機能するようにできることはいうまでもない。   For example, in the said embodiment, although the case where the server 2 of the karaoke system 1 was comprised as a song scoring system of this invention was illustrated, a part of process by this server 2, for example, a part or all of a history storage process It goes without saying that a part or all of the singing grading process can be performed in cooperation with other devices such as the karaoke device 3 so as to function as a singing grading system as a whole.

また、上記実施形態においては、歌唱パラメータ,理想パラメータにおける「単位区間」が、音符で規定される音を時系列に沿って分割したものである場合を例示した。しかし、この「単位区間」としては、例えば、楽曲における1以上の小節からなる区間であってもよい。   Moreover, in the said embodiment, the case where the "unit area" in a song parameter and an ideal parameter divided | segmented the sound prescribed | regulated by a musical note along the time series was illustrated. However, the “unit section” may be, for example, a section composed of one or more bars in the music.

また、上記実施形態においては、履歴蓄積処理(図2),歌唱採点処理(図5)が、カラオケ装置3からの歌唱データを受信した場合に実行されるように構成されたものを例示した。しかし、これら処理については、記憶部23などにあらかじめ記憶された歌唱データに基づき、ユーザの操作などに起因する外部からの指令を受けたタイミングで実行開始されるように構成してもよい。
(5)本発明との対応関係
以上説明した実施形態において、サーバ2は、本発明における歌唱採点システムに相当し、図2のs140は、本発明における区間正確性特定手段に相当し、同図s160は、本発明におけるパラメータ正確性特定手段ユーザ記憶手段に相当し、図5のs240は、本発明における区間評価手段に相当し、同図s250は、本発明における評価修正手段に相当し、同図s260は、本発明における歌唱採点手段に相当する。
Moreover, in the said embodiment, what was comprised so that a log | history storage process (FIG. 2) and a singing scoring process (FIG. 5) might be performed when the singing data from the karaoke apparatus 3 was received was illustrated. However, these processes may be configured to be started at the timing of receiving an external command caused by a user operation or the like based on song data stored in advance in the storage unit 23 or the like.
(5) Correspondence with the present invention In the embodiment described above, the server 2 corresponds to the singing scoring system in the present invention, and s140 in FIG. 2 corresponds to the section accuracy specifying means in the present invention. s160 corresponds to parameter accuracy specifying means user storage means in the present invention, s240 in FIG. 5 corresponds to section evaluation means in the present invention, and s250 in FIG. 5 corresponds to evaluation correction means in the present invention. FIG. S260 corresponds to the singing scoring means in the present invention.

カラオケシステムの全体構成を示すブロック図Block diagram showing the overall configuration of the karaoke system 履歴蓄積処理を示すフローチャートFlow chart showing history accumulation processing 単位区間毎の区間正確性を特定する様子を概念的に示した図The figure which showed notionally how to specify the section accuracy for each unit section 歌唱履歴データのデータ構造を示す図The figure which shows the data structure of singing history data 歌唱採点処理を示すフローチャートFlow chart showing singing scoring process

符号の説明Explanation of symbols

1…カラオケシステム、2…サーバ、3…カラオケ装置、21…制御部、23…記憶部、25…通信部、27…部、29…メディアドライブ、31…制御部、33…記憶部、35…通信部、41…表示部、43…操作部、45…マイク、47…スピーカ、49…音声入出力部、100…ネットワーク。   DESCRIPTION OF SYMBOLS 1 ... Karaoke system, 2 ... Server, 3 ... Karaoke apparatus, 21 ... Control part, 23 ... Memory | storage part, 25 ... Communication part, 27 ... part, 29 ... Media drive, 31 ... Control part, 33 ... Memory | storage part, 35 ... Communication unit 41... Display unit 43. Operation unit 45. Microphone 47 47 Speaker 49 49 Voice input / output unit 100 Network

Claims (10)

ユーザが楽曲を歌唱してなる音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、該区間において発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の前記理想パラメータに対する前記歌唱パラメータの正確性(区間正確性)を特定する区間正確性特定手段と、
該区間正確性特定手段により特定された区間正確性それぞれについて、前記理想パラメータの種類毎に統計をとることにより、該当ユーザが前記理想パラメータで規定される音声を発声した際の正確性(パラメータ正確性)を、前記理想パラメータの種類毎に特定するパラメータ正確性特定手段と、
該パラメータ正確性特定手段により特定された前記理想パラメータの種類それぞれについてのパラメータ正確性を、該パラメータ正確性を特定する契機となった楽曲を歌唱したユーザに対応づけて記憶部に記憶させるユーザ記憶手段と、
ユーザが採点対象の楽曲(採点対象楽曲)を歌唱してなる音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、該区間における理想パラメータと対比することにより、区間毎の評価値を算出する区間評価手段と、
該区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段が記憶部に記憶させたパラメータ正確性のうち、その評価の契機となった採点対象楽曲を歌唱した歌唱ユーザに対応するパラメータ正確性に基づいて修正する評価修正手段と、
該評価修正手段による修正後の評価値それぞれについて、前記採点対象楽曲の全区間で統計をとることにより、前記歌唱ユーザが前記採点対象楽曲を歌唱した場合の採点結果を算出する歌唱採点手段と、を備えており、
前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段により記憶部に記憶させられた前記歌唱ユーザのパラメータ正確性のうち、その区間における前記理想パラメータについてのパラメータ正確性の低さに応じて評価が高くなるように修正する、ように構成されている
ことを特徴とする歌唱採点システム。
Contrast the singing parameters related to the voice of the section with the ideal parameters based on the correct voice to be uttered in the section for each section obtained by dividing the voice of the song sung by the user for each predetermined section along the time series. Section accuracy specifying means for specifying the accuracy (section accuracy) of the singing parameter with respect to the ideal parameter for each section;
For each section accuracy specified by the section accuracy specifying means, by taking statistics for each type of the ideal parameter, the accuracy (parameter accuracy) when the corresponding user utters the voice defined by the ideal parameter. Parameter accuracy specifying means for specifying for each type of the ideal parameter,
User memory for storing the parameter accuracy for each of the types of ideal parameters specified by the parameter accuracy specifying means in the storage unit in association with the user who sang the music that triggered the specification of the parameter accuracy Means,
For each of the sections when the user sings the singing target music (scoring target music) for each predetermined section along the time series, the singing parameters relating to the sound of the section are the ideal parameters in the section. By comparing, an interval evaluation means for calculating an evaluation value for each interval,
Each of the evaluation values for each section calculated by the section evaluation means corresponds to the singing user who sang the music to be scored, which is the trigger for the evaluation, out of the parameter accuracy stored in the storage unit by the user storage means Evaluation correction means for correcting based on the parameter accuracy to be performed,
Singing scoring means for calculating a scoring result when the singing user has sung the scoring target music by taking statistics for all sections of the scoring target music for each of the evaluation values after correction by the evaluation correcting means, With
The evaluation correction means includes the ideal parameter in the section among the parameter accuracy of the singing user stored in the storage unit by the user storage means for each evaluation value calculated by the section evaluation means. The singing scoring system is configured to be modified so that the evaluation becomes higher according to the low accuracy of the parameter.
前記区間正確性特定手段は、ユーザが楽曲を歌唱してなる音声を音の推移で表した場合における各音の区間それぞれについて、該区間における音の高さおよび長さで規定される歌唱パラメータを、同じ区間における理想パラメータと対比することにより、区間毎の前記区間正確性を特定する
ことを特徴とする請求項1に記載の歌唱採点システム。
The section accuracy specifying means, for each sound section in the case where the sound of the user singing the music is represented by sound transition, singing parameters defined by the pitch and length of the sound in the section The singing scoring system according to claim 1, wherein the section accuracy for each section is specified by comparing with ideal parameters in the same section.
前記区間正確性特定手段は、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声,を特定可能な歌唱データに基づき、該歌唱データで特定される音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、前記取得した歌唱データで特定される楽曲における同じ区間で発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の前記理想パラメータに対する前記区間正確性を特定しており、
前記ユーザ記憶手段は、前記パラメータ正確性特定手段により特定された前記理想パラメータの種類それぞれについてのパラメータ正確性を、該パラメータ正確性を特定する契機となった歌唱データで特定されるユーザに対応づけて記憶部に記憶させる
ことを特徴とする請求項1または請求項2に記載の歌唱採点システム。
The section accuracy specifying means is based on song data that can specify a user who sang a song, a song sung, and a voice formed by singing the song. For each of the sections divided into predetermined sections along the line, the singing parameters relating to the sound of the section are compared with ideal parameters based on the correct sound to be uttered in the same section in the music specified by the acquired singing data. Identifying the interval accuracy for the ideal parameter for each interval;
The user storage means associates the parameter accuracy for each type of the ideal parameter specified by the parameter accuracy specifying means with the user specified by the singing data that triggered the parameter accuracy. The singing scoring system according to claim 1, wherein the singing scoring system is stored in a storage unit.
前記歌唱データが、楽曲を歌唱したユーザ,該歌唱した楽曲,および,該楽曲を歌唱してなる音声だけでなく、その楽曲についてあらかじめ定められた音の高さまたは長さを変更して歌唱した場合におけるその変更後の音の高さまたは長さを特定可能なデータである場合において、
前記区間正確性特定手段は、当該歌唱採点システム外部から取得した歌唱データが、前記変更後の音の高さまたは長さを特定可能な歌唱データである場合に、その歌唱データで特定される音声を時系列に沿って所定区間毎に分割した区間それぞれについて、該区間の音声に関する歌唱パラメータを、その変更後の音の高さまたは長さとした場合における前記理想パラメータと対比することにより、区間毎の前記区間正確性を特定する
ことを特徴とする請求項3に記載の歌唱採点システム。
The singing data was sung by changing not only the user who sang the song, the sung song, and the voice of singing the song, but also the predetermined pitch or length of the song. In the case of data that can specify the pitch or length of the sound after the change in the case,
When the song data acquired from the outside of the song scoring system is song data that can specify the pitch or length of the sound after the change, the section accuracy specifying means is a voice specified by the song data. For each section divided into predetermined sections along the time series, the singing parameters relating to the sound of the section are compared with the ideal parameters in the case where the pitch or length of the sound after the change is made. The singing scoring system according to claim 3, wherein the section accuracy is specified.
前記区間評価手段は、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声,を特定可能な歌唱データで示される音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、前記取得した歌唱データで特定される楽曲における同じ区間で発声すべき正しい音声に基づく理想パラメータと対比することにより、区間毎の評価値を算出しており、
前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、前記ユーザ記憶手段が記憶部に記憶させたパラメータ正確性のうち、その評価に用いられた前記歌唱データで特定されるユーザに対応するパラメータ正確性に基づいて修正する
ことを特徴とする請求項1から4のいずれかに記載の歌唱採点システム。
The section evaluation means includes, in chronological order, voices indicated by singing data that can specify a user who sang the music to be scored, a music to be scored that has been sung, and a voice that sings the music to be scored For each section in the case of dividing every predetermined section, by comparing the singing parameters relating to the sound of the section with ideal parameters based on the correct sound to be uttered in the same section in the music specified by the acquired singing data, The evaluation value for each section is calculated,
The evaluation correction means specifies each evaluation value for each section calculated by the section evaluation means with the singing data used for the evaluation out of the parameter accuracy stored in the storage unit by the user storage means. It correct | amends based on the parameter accuracy corresponding to the user to be performed. The singing scoring system in any one of Claim 1 to 4 characterized by the above-mentioned.
前記歌唱データが、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声だけでなく、ユーザが採点対象楽曲として歌唱した楽曲であるか否かを特定可能なデータである場合において、
前記区間評価手段は、当該歌唱採点システム外部から取得した歌唱データが、前記採点対象楽曲として歌唱した楽曲である旨を特定可能な歌唱データである場合に、その歌唱データで示される楽曲を前記採点対象楽曲として、該楽曲についての区間毎の評価値を算出する
ことを特徴とする請求項5に記載の歌唱採点システム。
Whether the singing data is not only the user who sang the grading music, the singing music sung, and the voice singing the singing music, but also the music sung by the user as the grading music Is the data that can be specified,
When the singing data acquired from outside the singing scoring system is singing data that can specify that the singing music is sung as the scoring target music, the section evaluation means scores the music indicated by the singing data. The singing scoring system according to claim 5, wherein an evaluation value for each section of the music is calculated as the target music.
前記歌唱データが、採点対象楽曲を歌唱したユーザ,該歌唱した採点対象楽曲,および,該採点対象楽曲を歌唱してなる音声だけでなく、その楽曲についてあらかじめ定められた音の高さまたは長さを変更して歌唱した場合におけるその変更後の音の高さまたは長さを特定可能なデータである場合において、
前記区間評価手段は、当該歌唱採点システム外部から取得した歌唱データが、前記変更後の音の高さまたは長さを特定可能な歌唱データである場合に、該歌唱データで示される音声を時系列に沿って所定区間毎に分割した場合における区間それぞれについて、該区間の音声に関する歌唱パラメータを、その変更後の音の高さまたは長さとした場合における前記理想パラメータと対比することにより、区間毎の評価値を算出する
ことを特徴とする請求項5または請求項6に記載の歌唱採点システム。
The singing data is not only the user who sang the music to be scored, the music to be sung, and the voice singing the music to be scored, but also the pitch or length of the sound determined in advance for the music If it is data that can specify the pitch or length of the sound after the change when singing
The section evaluation means, when singing data acquired from outside the singing scoring system is singing data that can specify the pitch or length of the changed sound, the voice indicated by the singing data is time-series For each section when divided into predetermined sections along the line, the singing parameters relating to the sound of the section are compared with the ideal parameters when the pitch or the length of the sound after the change is made. An evaluation value is calculated. The singing scoring system according to claim 5 or 6 characterized by things.
前記パラメータ正確性特定手段は、前記区間正確性特定手段により特定された区間正確性それぞれを、前記理想パラメータの種類毎に平均化することにより、該当ユーザにおける前記パラメータ正確性を、前記理想パラメータの種類毎に特定する
ことを特徴とする請求項1から7のいずれかに記載の歌唱採点システム。
The parameter accuracy specifying means averages each section accuracy specified by the section accuracy specifying means for each type of the ideal parameter, thereby obtaining the parameter accuracy of the user in question for the ideal parameter. It specifies for every kind. The singing scoring system in any one of Claim 1 to 7 characterized by the above-mentioned.
前記区間評価手段は、各区間の音声に関する歌唱パラメータを、該区間における理想パラメータと対比することにより、該理想パラメータに対する前記歌唱パラメータのズレ量を示す値を評価値として区間毎に算出して、
前記評価修正手段は、前記区間評価手段により算出された区間毎の評価値それぞれを、該当する前記理想パラメータについてのパラメータ正確性に応じて低くなるように修正して、
前記歌唱採点手段は、前記評価修正手段による修正後の評価値全てを基準点数から減算することにより、該減算後に残った点数を、前記歌唱ユーザが前記採点対象楽曲を歌唱した場合の採点結果として算出する
ことを特徴とする請求項1から8のいずれかに記載の歌唱採点システム。
The section evaluation means calculates, for each section, a value indicating a deviation amount of the singing parameter with respect to the ideal parameter as an evaluation value by comparing the singing parameter related to the sound of each section with the ideal parameter in the section.
The evaluation correction means corrects each evaluation value for each section calculated by the section evaluation means so as to be low according to the parameter accuracy for the corresponding ideal parameter,
The singing scoring means subtracts all the evaluation values after the correction by the evaluation correcting means from the reference score, thereby obtaining the score remaining after the subtraction as a scoring result when the singing user sings the scoring target music The singing scoring system according to claim 1, wherein the singing scoring system is calculated.
請求項1から9のいずれかに記載の全ての手段として機能させるための各種処理手順をコンピュータシステムに実行させるためのプログラム。   A program for causing a computer system to execute various processing procedures for causing all of the means according to any one of claims 1 to 9 to function.
JP2008334133A 2008-12-26 2008-12-26 Singing scoring system and program Expired - Fee Related JP5126055B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008334133A JP5126055B2 (en) 2008-12-26 2008-12-26 Singing scoring system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008334133A JP5126055B2 (en) 2008-12-26 2008-12-26 Singing scoring system and program

Publications (2)

Publication Number Publication Date
JP2010156777A true JP2010156777A (en) 2010-07-15
JP5126055B2 JP5126055B2 (en) 2013-01-23

Family

ID=42574758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008334133A Expired - Fee Related JP5126055B2 (en) 2008-12-26 2008-12-26 Singing scoring system and program

Country Status (1)

Country Link
JP (1) JP5126055B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013213906A (en) * 2012-04-02 2013-10-17 Yamaha Corp Performance evaluation unit, karaoke device and server device
CN103916433A (en) * 2013-01-04 2014-07-09 中兴通讯股份有限公司 Karaoke data processing method and device, service platform of internet of things and terminals of internet of things
CN109754818A (en) * 2019-03-15 2019-05-14 林超 A kind of detection of sounding and pronunciation practice method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003623A (en) * 2018-08-08 2018-12-14 爱驰汽车有限公司 Vehicle-mounted singing points-scoring system, method, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000295374A (en) * 1999-04-06 2000-10-20 Daiichikosho Co Ltd Information service method by means of combination of karaoke device and portable telephone set
JP2005107334A (en) * 2003-09-30 2005-04-21 Yamaha Corp Karaoke machine
JP2005141123A (en) * 2003-11-10 2005-06-02 Konami Co Ltd Karaoke machine, singing level deciding method, and program
JP2008026622A (en) * 2006-07-21 2008-02-07 Yamaha Corp Evaluation apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000295374A (en) * 1999-04-06 2000-10-20 Daiichikosho Co Ltd Information service method by means of combination of karaoke device and portable telephone set
JP2005107334A (en) * 2003-09-30 2005-04-21 Yamaha Corp Karaoke machine
JP2005141123A (en) * 2003-11-10 2005-06-02 Konami Co Ltd Karaoke machine, singing level deciding method, and program
JP2008026622A (en) * 2006-07-21 2008-02-07 Yamaha Corp Evaluation apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013213906A (en) * 2012-04-02 2013-10-17 Yamaha Corp Performance evaluation unit, karaoke device and server device
CN103916433A (en) * 2013-01-04 2014-07-09 中兴通讯股份有限公司 Karaoke data processing method and device, service platform of internet of things and terminals of internet of things
CN103916433B (en) * 2013-01-04 2017-08-01 中兴通讯股份有限公司 A kind of karaoke data processing method, device, Internet of Things service platform and terminal
CN109754818A (en) * 2019-03-15 2019-05-14 林超 A kind of detection of sounding and pronunciation practice method
CN109754818B (en) * 2019-03-15 2021-11-26 林超 Sound production detection and exercise method

Also Published As

Publication number Publication date
JP5126055B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP4640407B2 (en) Signal processing apparatus, signal processing method, and program
JP2007322598A (en) Musical piece classification device, musical piece classification method and musical piece classification program
JPWO2008004666A1 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
JP2017519255A (en) Musical score tracking method and related modeling method
JP6759545B2 (en) Evaluation device and program
JP5126055B2 (en) Singing scoring system and program
JP4921343B2 (en) Performance evaluation device, program and electronic musical instrument
JP5109909B2 (en) Difficulty estimation system and program
US7910820B2 (en) Information processing apparatus and method, program, and record medium
JP2007298607A (en) Device, method, and program for analyzing sound signal
JP2009244707A (en) Musical range determination system and program
JP5131130B2 (en) Follow-up evaluation system, karaoke system and program
CN112632401A (en) Recommendation device, information providing system, recommendation method, and storage medium
JP5830840B2 (en) Voice evaluation device
JP2015194767A (en) Voice evaluation device
JP6838357B2 (en) Acoustic analysis method and acoustic analyzer
JP5298945B2 (en) Pitch determination system, range determination system, and program
JP5585320B2 (en) Singing voice evaluation device
JP6596346B2 (en) Karaoke system
JP6836467B2 (en) Karaoke equipment
JP2010085658A (en) Difficulty level estimation system and program
JP5262875B2 (en) Follow-up evaluation system, karaoke system and program
JP6077492B2 (en) Information processing apparatus, information processing method, and program
JP5994343B2 (en) Performance evaluation device and karaoke device
JP5960488B2 (en) Musical score playing apparatus and musical score playing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5126055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees