JP5125956B2 - Range identification system, program - Google Patents

Range identification system, program Download PDF

Info

Publication number
JP5125956B2
JP5125956B2 JP2008254024A JP2008254024A JP5125956B2 JP 5125956 B2 JP5125956 B2 JP 5125956B2 JP 2008254024 A JP2008254024 A JP 2008254024A JP 2008254024 A JP2008254024 A JP 2008254024A JP 5125956 B2 JP5125956 B2 JP 5125956B2
Authority
JP
Japan
Prior art keywords
singing
value
range
sound
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008254024A
Other languages
Japanese (ja)
Other versions
JP2010085654A (en
Inventor
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008254024A priority Critical patent/JP5125956B2/en
Publication of JP2010085654A publication Critical patent/JP2010085654A/en
Application granted granted Critical
Publication of JP5125956B2 publication Critical patent/JP5125956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To specify a register in which a user naturally sings, in a register specifying system. <P>SOLUTION: In singing register specification processing, a voice duration period tpc(k) indicating the time for which voice is continued with a volume equal to or larger than a set value is derived on the basis of voice data in each corresponding period T(k) (S330). Furthermore, a total duration period tp(f) resulting from tabulating voice duration periods tpc(k) with respect to each of pitches f corresponding to component sounds in each corresponding period T(k) is derived (S340). A range from the lowest pitch to the highest pitch, wherein the total duration period tp(f) is equal to or longer than a prescribed value, is specified as a first singing register. That is, the total duration period tp(f) has a large value in the case of the pitch f at which voice can be continued with a volume equal to or larger than the set value, thereby a register in which the user can naturally sing is specified. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、ユーザが歌唱可能な音域を特定する音域特定システム、及びコンピュータを音域特定システムとして機能させるためのプログラムに関する。   The present invention relates to a sound range specifying system for specifying a sound range in which a user can sing, and a program for causing a computer to function as a sound range specifying system.

従来より、伴奏音楽に合わせて、ユーザが歌唱を楽しむためのカラオケ装置が知られている。
この種のカラオケ装置の中には、ユーザが歌唱可能な音域を特定し、その特定した歌唱可能な音域をユーザに報知するものがある。
Conventionally, a karaoke apparatus for a user to enjoy singing along with accompaniment music is known.
Among this type of karaoke apparatus, there is a device that specifies a range in which the user can sing and informs the user of the specified range that can be sung.

例えば、マイクを介して入力された音声(即ち、ユーザが一度でも発声した音声)の中で、最高音高(最高音程)を歌唱最高音とし、最低音高(最低音程)を歌唱最低音とする。そして、その音域を特定する技術としては、ユーザによる楽曲の歌唱中に、歌唱最高音及び歌唱最低音を検出すると共に、それらの検出した最低音高から最高音高までの音高範囲(即ち、音域)を、ユーザが歌唱可能な音域とすることが提案されている(例えば、特許文献1参照)。
特開2002−73058号公報
For example, among voices input via a microphone (that is, voices uttered by the user even once), the highest pitch (highest pitch) is the highest singing sound, and the lowest pitch (lowest pitch) is the lowest singing sound. To do. And as a technique for specifying the range, while singing the music by the user, while detecting the highest singing sound and the lowest singing sound, the pitch range from the detected lowest pitch to the highest pitch (that is, It has been proposed that the user can sing a sound range) (see, for example, Patent Document 1).
JP 2002-73058 A

しかしながら、特許文献1に記載の技術では、ユーザが無理をして発声した歌唱最高音もしくは歌唱最低音であっても(例えば、ユーザが声帯を痛めかねないような発声を実施した場合の音高であっても)、それら歌唱最高音から歌唱最低音までの音域を歌唱可能な音域としてしまうため、歌唱可能な音域を適切に特定しているとは言い難い。   However, in the technique described in Patent Document 1, even if the highest singing sound or the lowest singing sound is uttered by the user by force (for example, the pitch when the user performs utterance that may damage the vocal cords). However, since the range from the highest singing sound to the lowest singing sound is set as a singable range, it is difficult to say that the singable range is appropriately specified.

つまり、特許文献1に記載の技術では、ユーザが無理すること無く歌唱可能な音域を適切に特定できないという問題があり、この判定結果に基づいて、カラオケ装置がユーザに楽曲を提案しても、ユーザがカラオケを楽しむことができない可能性があった。   That is, in the technique described in Patent Document 1, there is a problem that it is not possible to appropriately specify a singing range without the user's excessive effort. Even if the karaoke device proposes a song to the user based on the determination result, There was a possibility that the user could not enjoy karaoke.

そこで、本発明は、音域特定システムにおいて、ユーザが無理をすること無く歌唱可能な音域を特定することを目的とする。   Therefore, an object of the present invention is to specify a sound range that can be sung by a user without overdoing in a sound range specifying system.

上記目的を達成するためになされた本発明の音域特定システムでは、音声信号取得手段が、ユーザによる楽曲の歌唱時における音声信号を取得し、歌唱データ生成手段が、音声信号取得手段で取得した音声信号を周波数解析することで、歌唱の音高の推移を表す歌唱データを生成する。さらに、楽曲データ取得手段が、楽曲を構成する構成音それぞれの音高及び音価を表す楽曲データを取得し、歌唱区間特定手段が、歌唱データ生成手段で生成した歌唱データを、楽曲データと照合することで、構成音それぞれに対応する区間である歌唱区間を特定する。   In the range specifying system of the present invention made to achieve the above object, the audio signal acquisition means acquires the audio signal when the user sings the music, and the song data generation means acquires the audio acquired by the audio signal acquisition means. By analyzing the frequency of the signal, singing data representing the transition of the pitch of the singing is generated. Further, the music data acquisition means acquires music data representing the pitch and value of each of the constituent sounds constituting the music, and the singing section specifying means collates the song data generated by the song data generation means with the music data. By doing this, the singing section which is a section corresponding to each component sound is specified.

そして、持続値導出手段が、歌唱区間特定手段で特定された歌唱区間毎に、設定値以上の声量でユーザが発声していた時間が長いほど大きな値となる音声持続値を導出すると、その導出された音声持続値を、第一音域判定手段が、それぞれの歌唱区間に対応する構成音の音高毎に集計し、その集計された音声持続値(以下、集計持続値とする)が、予め規定された規定値以上である最低音高から最高音高までの範囲を、ユーザが歌唱可能な音域である第一歌唱音域として判定する。   Then, when the duration value deriving means derives a voice duration value that becomes larger as the time during which the user has uttered with a voice volume equal to or higher than the set value for each singing section specified by the singing section specifying means, The first sound range determination means totals the sound duration values that have been recorded for each pitch of the constituent sounds corresponding to each singing section, and the total voice duration value (hereinafter referred to as the total duration value) A range from the lowest pitch to the highest pitch that is equal to or higher than a specified value is determined as a first singing range that is a range in which the user can sing.

つまり、本発明の音域特定システムでは、予め設定された一定レベル以上の声量にて、ユーザが安定して歌唱できる(即ち、音声持続値が規定値以上である)音高の範囲を歌唱音域(即ち、第一歌唱音域)として判定している。   In other words, in the range specifying system of the present invention, the range of the pitch that the user can stably sing with a voice volume equal to or higher than a predetermined level (that is, the voice duration value is equal to or higher than a specified value) That is, it is determined as the first singing range.

そして、ユーザが無理をして発声した状態では、一定レベル以上の声量で発声を安定させることが困難であることから、本発明の音域特定システムによれば、ユーザが無理をすること無く歌唱可能な音域を特定することができる。   And, in the state that the user uttered utterance, it is difficult to stabilize the utterance with a voice volume above a certain level, so according to the range identification system of the present invention, the user can sing without undue effort Can be identified.

したがって、本発明の音域特定システムを有したカラオケシステムにおいて、主として特定した歌唱音域内で音高が変化する楽曲を推奨曲としてユーザに提案するようにすれば、ユーザにカラオケをより楽しませることができる。   Therefore, in the karaoke system having the range specifying system of the present invention, if the music whose pitch changes mainly in the specified singing range is suggested to the user as a recommended song, the user can more enjoy karaoke. it can.

ところで、通常、歌唱が上手なユーザは、歌唱が下手なユーザに比べて、広い音域にて、一定以上の声量で歌唱することができる。
つまり、本発明の音域特定システムにおいて、集計持続値を正規化した場合、その集計持続値の分布は、歌唱の上手なユーザほど、各歌唱区間に対応する構成音の音高それぞれの集計結果(即ち、集計持続値)が最大値に近い値となる。一方、集計持続値の分布において、歌唱の下手なユーザほど、最大値と、最大値に対応しない音高それぞれの集計結果(即ち、集計持続値)との値の差が大きくなる。
By the way, normally, a user who is good at singing can sing with a sound volume above a certain level in a wider sound range than a user who is poor at singing.
That is, in the range specifying system of the present invention, when the total duration value is normalized, the distribution of the total duration value is the summation result of the pitches of the constituent sounds corresponding to each singing section, as the user who is better at singing ( That is, the total accumulated value is close to the maximum value. On the other hand, in the distribution of the total duration value, the difference between the maximum value and the total result of the pitches that do not correspond to the maximum value (that is, the total duration value) increases as the user is poorer in singing.

したがって、請求項2に記載のように、音域特定手段にて用いる規定値を、正規化された集計持続値の最大値に対して予め規定された割合とすれば、歌唱が上手なユーザほど広い音域を歌唱音域として判定することができる。この結果、本発明の音域特定システムによれば、ユーザのレベル(技量)に拘わらず、ユーザの歌唱音域を適切に判定することができる。   Therefore, as described in claim 2, if the specified value used in the sound range specifying means is a ratio defined in advance with respect to the maximum value of the normalized totaled continuous value, the user who is good at singing is wider. The range can be determined as the singing range. As a result, according to the sound range specifying system of the present invention, the user's singing sound range can be appropriately determined regardless of the user's level (skill).

また、一般的に、構成音の音価(即ち、各構成音の時間長)が長いほど、その構成音の全音価に対して一定レベル以上の声量を維持することが難しくなる。
このため、本発明の音域特定システムにおける第一音域判定手段は、請求項3に記載のように、歌唱区間に対応する構成音の音価が長いほど、音声持続値に大きな重みを付して集計するように構成されていることが望ましい。
In general, the longer the tone value of a constituent sound (that is, the time length of each constituent sound), the more difficult it is to maintain a voice volume above a certain level with respect to the total tone value of the constituent sounds.
For this reason, the first sound range determination means in the sound range identification system of the present invention attaches a greater weight to the sound duration value as the note value of the constituent sound corresponding to the singing section is longer, as described in claim 3. It is desirable to be configured to aggregate.

このように構成された本発明の音域特定システムによれば、ユーザが無理すること無く発声可能な音域(歌唱音域)を、より確実に特定することができる。
そして、本発明の音域特定システムにおける持続値導出手段は、請求項4に記載のように、声量値導出手段が、音声信号取得手段で取得した音声信号の信号レベルに基づいて、歌唱区間よりも短く規定された単位区間毎に、ユーザの声量を表す声量値を導出すると共に、積算値導出手段が、声量値が設定値以上である単位区間の長さを積算した値を音声持続値として導出するように構成されていても良い。
According to the sound range specifying system of the present invention configured as described above, it is possible to more reliably specify a sound range (singing sound range) that can be uttered by the user without overdoing it.
Then, the duration value deriving means in the sound range specifying system of the present invention, as claimed in claim 4, is based on the signal level of the audio signal acquired by the audio volume value acquiring means than the singing section. In addition to deriving a voice volume value representing the user's voice volume for each short defined unit section, the integrated value deriving means derives a value obtained by integrating the length of the unit section whose voice volume value is equal to or greater than a set value as a voice duration value. It may be configured to.

このように構成された音域特定システムによれば、音声信号の信号レベルに従って音声持続値を導出するため、当該音域特定システムに入力する信号数を増加すること無く、音域を特定することができる。   According to the sound range specifying system configured as described above, since the sound duration value is derived according to the signal level of the sound signal, the sound range can be specified without increasing the number of signals input to the sound range specifying system.

なお、ここでいう声量値とは、単位時間毎に、音声信号の信号レベル(即ち、振幅の絶対値)を平均した値でも良いし、音声信号の信号レベル(振幅)を二乗した値でも良いし、音声信号の信号レベル(振幅)を二乗平均した値でも良い。   The voice volume value here may be a value obtained by averaging the signal level (that is, the absolute value of the amplitude) of the audio signal every unit time, or may be a value obtained by squaring the signal level (amplitude) of the audio signal. Alternatively, a value obtained by averaging the signal level (amplitude) of the audio signal may be used.

また、本発明の音域特定システムは、請求項5に記載のように、安定度導出手段が、歌唱区間それぞれでのビブラートの安定度合いを表す歌唱安定度を導出し、その導出された歌唱安定度を、それぞれの歌唱区間に対応する構成音の音高毎に集計し、第二音域判定手段が、その集計された歌唱安定度が、予め規定された特定値以上である最低音高から最高音高までの範囲を、ユーザが歌唱可能な音域である第二歌唱音域として判定するように構成されていても良い。   Further, in the range specifying system of the present invention, as described in claim 5, the stability deriving means derives the singing stability indicating the degree of stability of the vibrato in each singing section, and the derived singing stability Are summed up for each pitch of the constituent sounds corresponding to each singing section, and the second range determining means has the summed singing stability from the lowest pitch to the highest pitch that is equal to or higher than a predetermined value. You may be comprised so that the range to high may be determined as a 2nd song sound range which is a sound range which a user can sing.

このように構成された本発明の音域特定システムでは、設定値以上の声量で安定して歌唱可能な第一歌唱音域に加えて、ビブラートによる発声方法で安定して歌唱可能な音域を第二歌唱音域として判定している。   In the range specifying system of the present invention configured as described above, in addition to the first singing range that can be stably sung with a voice volume equal to or higher than the set value, the range that can be stably sung by the utterance method by vibrato is used as the second singing range. It is determined as a range.

つまり、本発明の音域特定システムによれば、音声持続値、及び歌唱安定度という、互いに異なる2つのパラメータそれぞれに基づく歌唱音域を判定することができる。
このため、本発明の音域特定システムをカラオケ装置に適用して、歌唱音域に基づく推奨曲をユーザに提案することや、歌唱音域を採点結果に反映することを実行する場合、特定した2つの歌唱音域を楽曲に応じて使い分けることができる。この結果、より適切な推奨曲を提案したり、より適切な採点をすることができ、ユーザにカラオケをより楽しませることができる。
That is, according to the range specifying system of the present invention, it is possible to determine the singing range based on two different parameters such as the voice duration value and the singing stability.
For this reason, when the range identification system of the present invention is applied to a karaoke device to propose a recommended song based on the singing range to the user or to reflect the singing range in the scoring result, the two specified singing The range can be used properly according to the music. As a result, a more appropriate recommended song can be proposed or a more appropriate scoring can be made, and the user can be more entertained with karaoke.

このように、第一歌唱音域に加えて、第二歌唱音域を判定するように構成された本発明の音域特定システムでは、これら2つの音域(第一,第二歌唱音域)に基づいて、ユーザがより自然に歌唱可能な音域(即ち、歌唱音域)を特定することが望ましい。   In this way, in the range specifying system of the present invention configured to determine the second singing range in addition to the first singing range, the user is based on these two ranges (first and second singing ranges). It is desirable to specify a sound range that can be sung more naturally (that is, a singing sound range).

すなわち、本発明の音域特定システムは、請求項6に記載のように、歌唱音域特定手段が、第一歌唱音域と第二歌唱音域とのうち、少なくとも一方を歌唱音域として特定するように構成されていても良いし、第一歌唱音域と第二歌唱音域との両方を満たす音域を歌唱音域として特定するように構成されていても良い。   That is, the range specifying system of the present invention is configured such that the singing range specifying unit specifies at least one of the first singing range and the second singing range as the singing range as described in claim 6. It may be constituted, and it may be constituted so that the range which satisfies both the 1st singing range and the 2nd singing range may be specified as a singing range.

前者であれば、広い音域を歌唱音域として特定するため、ユーザに満足感をあたえることができ、後者であれば、ユーザが確実に歌唱可能な音域を歌唱音域として特定することができる。   In the former case, since a wide sound range is specified as the singing sound range, the user can be satisfied, and in the latter case, a sound range in which the user can surely sing can be specified as the singing sound range.

なお、本発明は、請求項7に記載のように、コンピュータに各手順を実行させるためのプログラムとしてなされたものであっても良い。
ただし、本発明のプログラムは、ユーザによる楽曲の歌唱時における音声信号を取得する音声信号取得手順と、その取得した音声信号を周波数解析することで、歌唱の音高の推移を表す歌唱データを生成する歌唱データ生成手順と、楽曲を構成する構成音それぞれの音高及び音価を表す楽曲データを取得する楽曲データ取得手順と、歌唱データ生成手順にて生成した歌唱データを、楽曲データと照合することで、構成音それぞれに対応する区間である歌唱区間を特定する歌唱区間特定手順と、その特定された歌唱区間毎に、予め設定された設定値以上の声量でユーザが発声していた時間が長いほど大きな値となる音声持続値を導出する持続値導出手順と、その導出された音声持続値を、それぞれの歌唱区間に対応する構成音の音高毎に集計し、その集計された音声持続値が、予め規定された規定値以上である最低音高から最高音高までの範囲を、ユーザが歌唱可能な音域である第一歌唱音域として判定する第一音域判定手順とを含んでいる必要がある。
The present invention may be implemented as a program for causing a computer to execute each procedure, as described in claim 7.
However, the program of the present invention generates singing data representing the transition of the pitch of the singing by analyzing the frequency of the acquired audio signal and the audio signal acquisition procedure for acquiring the audio signal when the user sings the song. The song data generation procedure, the song data acquisition procedure for acquiring the song data representing the pitch and value of each of the constituent sounds constituting the song, and the song data generated in the song data generation procedure are collated with the song data. Thus, the time during which the user was uttering with a voice volume equal to or higher than a preset value for each specified singing section, and a singing section specifying procedure for specifying a singing section that is a section corresponding to each component sound The duration value derivation procedure for deriving the voice duration value, which becomes larger as the length increases, and the derived voice duration value are tabulated for each pitch of the constituent sounds corresponding to each singing section. The first sound range determination procedure for determining the range from the lowest pitch to the highest pitch whose total sound duration value is equal to or greater than a predetermined value as a first singing range that can be sung by the user. Need to contain.

このような本発明のプログラムをコンピュータに実行させることで、請求項1に記載の音域特定システムと同様の効果を得ることができる。
また、このような本発明のプログラムによれば、例えば、DVD−ROM、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータにロードさせて起動することや、必要に応じて通信回線を介してコンピュータにダウンロード(取得)させて起動することにより用いることができる。
By causing the computer to execute such a program of the present invention, it is possible to obtain the same effect as the sound range specifying system according to claim 1.
Further, according to the program of the present invention, for example, the program can be recorded on a computer-readable recording medium such as a DVD-ROM, a CD-ROM, and a hard disk, and loaded into the computer as necessary, and started. If necessary, it can be used by downloading (acquiring) to a computer via a communication line and starting it.

以下に本発明の実施形態を図面と共に説明する。
まず、図1は、本発明が適用されたカラオケシステムの概略構成を示すブロック図である。
〈カラオケシステム全体の構成〉
カラオケシステム1は、カラオケ用に予め加工された楽曲(以下、カラオケ楽曲とする)の演奏に応じてユーザが歌唱するためのものである。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a karaoke system to which the present invention is applied.
<Configuration of the entire karaoke system>
The karaoke system 1 is for a user to sing according to the performance of a song processed in advance for karaoke (hereinafter referred to as karaoke song).

そのカラオケシステム1は、図1に示すように、ユーザから指定されたカラオケ楽曲の再生を行うカラオケ装置20と、カラオケ楽曲の再生に必要なデータである楽曲データをカラオケ装置20に配信するサーバ30とを備え、それらカラオケ装置20とサーバ30とはネットワーク(例えば、専用回線や、WAN等)を介して接続されている。つまり、カラオケシステム1は、いわゆる通信カラオケシステムとして構成されたものである。   As shown in FIG. 1, the karaoke system 1 includes a karaoke apparatus 20 that reproduces karaoke music specified by a user, and a server 30 that distributes music data that is data necessary for reproducing karaoke music to the karaoke apparatus 20. The karaoke apparatus 20 and the server 30 are connected via a network (for example, a dedicated line, a WAN, or the like). That is, the karaoke system 1 is configured as a so-called communication karaoke system.

なお、本実施形態(図1)では、カラオケシステム1として、一つのカラオケ装置20と一つのサーバ30とが接続されたものを示すが、カラオケシステム1は、これに限るものではなく、複数のカラオケ装置20と一つのサーバ30とが接続されたものでも良いし、複数のカラオケ装置20と複数のサーバ30とが接続されたものでも良い。   In the present embodiment (FIG. 1), the karaoke system 1 is shown in which one karaoke device 20 and one server 30 are connected, but the karaoke system 1 is not limited to this, and a plurality of karaoke systems 1 The karaoke device 20 and one server 30 may be connected, or the karaoke device 20 and the plurality of servers 30 may be connected.

このうち、サーバ30は、カラオケ楽曲の演奏に必要な処理プログラム(以下、カラオケ処理プログラム)及び楽曲データを格納する記憶装置(図示せず)と、ROM,RAM,CPUを少なくとも有した周知のマイクロコンピュータ(図示せず)とを中心に構成された情報処理装置からなる周知のカラオケサービス用サーバ装置である。   Among these, the server 30 is a known micro having at least a processing program (hereinafter referred to as a karaoke processing program) necessary for performance of karaoke music and a storage device (not shown) for storing music data, and ROM, RAM, and CPU. This is a well-known karaoke service server device comprising an information processing device mainly composed of a computer (not shown).

つまり、サーバ30は、カラオケシステム1(より正確には、カラオケ装置20)を使用したユーザに関する情報(以下、ユーザ情報とする)や、カラオケ装置20から送信されたカラオケ採点の結果及びユーザの使用履歴等を一元管理する共に、カラオケ装置20からの要求に対して楽曲データやカラオケ処理プログラムを送信するように構成されている。   That is, the server 30 includes information on a user who uses the karaoke system 1 (more precisely, the karaoke device 20) (hereinafter referred to as user information), a karaoke scoring result transmitted from the karaoke device 20, and a user's use. The log data and the karaoke processing program are transmitted in response to a request from the karaoke apparatus 20 while managing the history and the like in a unified manner.

ところで、楽曲データは、カラオケ楽曲それぞれについて予め用意され、例えば、MIDI(Musical Instrument Digital Interface)フォーマットにて記述された周知のカラオケ再生用データである。   By the way, the music data is prepared in advance for each karaoke music, and is, for example, well-known karaoke playback data described in the MIDI (Musical Instrument Digital Interface) format.

したがって、楽曲データは、カラオケ楽曲に関するデータである楽曲情報と、ユーザが歌唱すべき旋律に関するデータであるガイドメロディと、そのカラオケ楽曲の歌詞に関するデータである歌詞情報とから構成されている。   Therefore, the music data is composed of music information that is data related to karaoke music, a guide melody that is data related to the melody that the user should sing, and lyrics information that is data related to the lyrics of the karaoke music.

そして、楽曲情報には、カラオケ楽曲を特定するための曲番号データと、曲名を示す曲名データと、そのカラオケ楽曲の演奏時間を示す時間データとが含まれている。
また、ガイドメロディは、カラオケ楽曲の旋律を形成する各構成音の音高、及び音価から構成されている。具体的に、本実施形態のガイドメロディは、各構成音それぞれの楽音出力開始時間及び楽音出力終了時間が、各構成音の音高と共に表されている。ただし、ここで言う楽音出力開始時間とは、構成音の出力を開始するカラオケ楽曲の演奏開始からの時間であり、楽音出力終了時間とは、構成音の出力を終了するカラオケ楽曲の演奏開始からの時間である。
〈カラオケ装置について〉
次に、カラオケ装置20の構成について説明する。
The music information includes music number data for specifying the karaoke music, music name data indicating the music name, and time data indicating the performance time of the karaoke music.
The guide melody is composed of pitches and tone values of constituent sounds that form the melody of karaoke music. Specifically, in the guide melody of the present embodiment, the tone output start time and tone output end time of each component sound are shown together with the pitch of each component sound. However, the tone output start time here is the time from the start of the performance of the karaoke music that starts outputting the constituent sounds, and the music output end time is from the start of the performance of the karaoke music that ends the output of the constituent sounds. Is the time.
<About karaoke equipment>
Next, the configuration of the karaoke apparatus 20 will be described.

このカラオケ装置20は、サーバ30との間でデータ通信を実行するための通信部22と、通信部22を介してサーバ30から取得したカラオケ処理プログラム及び楽曲データを記憶する記憶部21と、各種画像を表示するための表示部23と、ユーザからの指示を受け付ける操作受付部24とを備えている。さらに、カラオケ装置20は、音声を入力するためのマイクロホン26と、音声を出力するためのスピーカ27と、マイクロホン26やスピーカ27を介した音声の入出力を制御する音声入出力部25と、カラオケ装置20を構成する各部21,22,23,24,25を制御する制御部28を備えている。   The karaoke apparatus 20 includes a communication unit 22 for executing data communication with the server 30, a storage unit 21 for storing a karaoke processing program and music data acquired from the server 30 via the communication unit 22, and various types. A display unit 23 for displaying an image and an operation reception unit 24 for receiving an instruction from the user are provided. Further, the karaoke apparatus 20 includes a microphone 26 for inputting sound, a speaker 27 for outputting sound, a sound input / output unit 25 for controlling sound input / output through the microphone 26 and the speaker 27, and karaoke. A control unit 28 that controls each of the units 21, 22, 23, 24, and 25 constituting the apparatus 20 is provided.

このうち、通信部22は、カラオケ装置20をネットワーク(例えば、専用回線や、WAN)に接続して外部と通信を行うための通信インタフェースであり、制御部28からの制御指令に従って、サーバ30に各種データを出力すると共に、サーバ30から各種データや処理プログラムを取得する。   Among these, the communication unit 22 is a communication interface for connecting the karaoke apparatus 20 to a network (for example, a dedicated line or WAN) to communicate with the outside. The communication unit 22 communicates with the server 30 according to a control command from the control unit 28. While outputting various data, various data and processing programs are acquired from the server 30.

そして、表示部23は、例えば、液晶ディスプレイ等から構成された表示装置であり、操作受付部24は、例えば、複数のキースイッチ等から構成された入力装置や、周知のリモコンを介して入力された指示を受け付ける受信装置などからなる。   The display unit 23 is a display device configured from, for example, a liquid crystal display, and the operation receiving unit 24 is input via, for example, an input device configured from a plurality of key switches or the like, or a known remote controller. It comprises a receiving device that accepts instructions.

また、音声入出力部25は、マイクロホン26を介して入力された音声(アナログ信号)をデジタル信号に変換し、そのデジタル信号を制御部28に入力するAD変換器として構成されている。これと共に、音声入出力部25は、スピーカ27からの音声の出力を制御するように構成されている。なお、以下では、マイクロホン26を介して入力され、デジタル信号に変換された音声を音声データと称す。   The voice input / output unit 25 is configured as an AD converter that converts voice (analog signal) input via the microphone 26 into a digital signal and inputs the digital signal to the control unit 28. At the same time, the audio input / output unit 25 is configured to control the output of audio from the speaker 27. In the following, the sound that is input via the microphone 26 and converted into a digital signal is referred to as sound data.

さらに、記憶部21は、電源が切断されても記憶内容を保持すると共に記憶内容を読み書き可能に構成された記憶装置(例えば、ハードディスクドライブ)である。その記憶部21は、カラオケ処理プログラムを格納するプログラム格納領域と、楽曲データを記憶する楽曲データ格納領域と、音声データを記憶する特定用データ格納領域とを備えている。なお、特定用データ格納領域は、予め規定された規定数(例えば、5曲分)分のカラオケ楽曲に対する音声データを格納する音声データ格納領域が、予め設定されたユーザ数(例えば、5人分)分だけ用意されたものである。   Furthermore, the storage unit 21 is a storage device (for example, a hard disk drive) configured to retain stored contents even when the power is turned off and to be able to read and write the stored contents. The storage unit 21 includes a program storage area for storing a karaoke processing program, a music data storage area for storing music data, and a specifying data storage area for storing audio data. The data storage area for specification is a voice data storage area for storing voice data for a predetermined number of karaoke songs (for example, for five songs), and a predetermined number of users (for example, for five people). ) Is prepared for the minutes.

次に、制御部28は、電源が切断されても記憶内容を保持する必要のあるプログラムやデータを格納するROM28aと、プログラムやデータを一時的に格納するRAM28bと、ROM28aやRAM28bに記憶されたプログラムやデータに従って、カラオケ装置20を構成する各部21,22,23,24,25に対する制御及び各種演算を実行するCPU28cとを少なくとも有した周知のマイクロコンピュータを中心に構成されている。   Next, the control unit 28 stores the ROM 28a that stores programs and data that need to retain stored contents even when the power is turned off, the RAM 28b that temporarily stores programs and data, and the ROM 28a and RAM 28b. It is mainly configured by a known microcomputer having at least a CPU 28c that executes control and various operations for the respective units 21, 22, 23, 24, and 25 constituting the karaoke apparatus 20 according to programs and data.

なお、RAM28bには、記憶部21からカラオケ処理プログラムが読み込まれ、CPU28cは、RAM28bに記憶したカラオケ処理プログラムに従って各処理を実行する。   The karaoke processing program is read from the storage unit 21 into the RAM 28b, and the CPU 28c executes each process according to the karaoke processing program stored in the RAM 28b.

それらのカラオケ処理プログラムの中には、操作受付部24を介して入力された指示に従って指定されたカラオケ楽曲を演奏(再生)する共に、表示部23に歌詞を表示する周知のカラオケ演奏処理をCPU28cが実行するためのカラオケ演奏処理プログラムが含まれている。また、カラオケ処理プログラムの中には、マイクロホン26を介して入力される音声から抽出した歌唱の音程やテンポを採点基準(即ち、ガイドメロディ)と照合し、その適合度合を点数化することで採点結果とする周知の採点処理をCPU28cが実行するための採点処理プログラムが含まれている。   Among these karaoke processing programs, the CPU 28c performs a well-known karaoke performance process for playing (reproducing) a specified karaoke piece according to an instruction input via the operation receiving unit 24 and displaying lyrics on the display unit 23. A karaoke performance processing program is included. In the karaoke processing program, the pitch and tempo of the singing extracted from the voice input through the microphone 26 are checked against a scoring standard (that is, a guide melody), and the degree of conformity is scored. A scoring program for the CPU 28c to execute the well-known scoring process as a result is included.

さらに、カラオケ処理プログラムの中には、ユーザ情報(例えば、氏名、性別、識別番号(ID)、年齢)を操作受付部24を介して受け付けるユーザ情報処理をCPU28cが実行するためのユーザ情報処理プログラムが含まれている。また、カラオケ処理プログラムの中には、ユーザがカラオケ楽曲を歌唱した時に生成されるデータ(例えば、音声データ)や、カラオケ装置20を使用した時の履歴を、記憶部21またはサーバ30に蓄積する蓄積処理をCPU28cが実行するための蓄積処理プログラムが含まれている。   Further, in the karaoke processing program, a user information processing program for the CPU 28c to execute user information processing for receiving user information (for example, name, sex, identification number (ID), age) via the operation receiving unit 24. It is included. In the karaoke processing program, data generated when the user sings karaoke music (for example, voice data) and a history when the karaoke apparatus 20 is used are stored in the storage unit 21 or the server 30. An accumulation process program for the CPU 28c to execute the accumulation process is included.

また、カラオケ処理プログラムの中には、記憶部21の判定用データ格納領域に格納された音声データに基づいて、ユーザが歌唱可能な音域(以下、歌唱音域とする)を特定する歌唱音域特定処理をCPU28cが実行するための音域特定処理プログラムが含まれている。つまり、CPU28cが歌唱音域特定処理を実行することにより、カラオケ装置20が、本発明の音域特定システムとして機能する。   Further, in the karaoke processing program, a singing range specifying process for specifying a range in which the user can sing (hereinafter referred to as a singing range) based on the audio data stored in the determination data storage area of the storage unit 21. Is included in the sound range identification processing program for the CPU 28c to execute. That is, when the CPU 28c executes the singing sound range specifying process, the karaoke apparatus 20 functions as the sound range specifying system of the present invention.

次に、カラオケシステム1の作用(動作)について説明する。
カラオケシステム1が使用される場合、カラオケ装置20では、ユーザ情報処理プログラムを実行して、当該カラオケ装置20を利用するユーザの人数分のユーザ情報を受け付け、その受け付けたユーザ情報それぞれを各音声データ格納領域と対応付ける。
Next, the operation (operation) of the karaoke system 1 will be described.
When the karaoke system 1 is used, the karaoke device 20 executes a user information processing program, receives user information for the number of users who use the karaoke device 20, and sets each received user information as voice data. Associate with storage area.

さらに、カラオケ装置20では、カラオケ演奏処理プログラムを実行することで、ユーザに指定されたカラオケ楽曲を演奏する共に、そのカラオケ楽曲の歌詞を表示部23に表示する。ただし、制御部28は、各カラオケ楽曲の演奏前には、操作受付部24を介してユーザ情報を取得する。   Furthermore, in the karaoke apparatus 20, by executing a karaoke performance processing program, the karaoke music designated by the user is played and the lyrics of the karaoke music are displayed on the display unit 23. However, the control unit 28 acquires user information via the operation reception unit 24 before each karaoke piece is played.

また、カラオケ楽曲の演奏が開始されると、その時に演奏されるカラオケ楽曲(以下、該当カラオケ楽曲と称す)に応じてユーザが歌唱する。そして、該当カラオケ楽曲の演奏が終了すると、制御部28では、CPU28cが蓄積処理プログラムを実行して、ユーザの歌唱音声から生成した音声データを、該当カラオケ楽曲の曲番号データと対応付けた上で(以下、音声データと、曲番号データとが対応付けられたデータを対応データとも称す)、音声データ格納領域に格納する。ただし、対応データが格納される音声データ格納領域は、該当カラオケ楽曲に対して歌唱を実行したユーザのユーザ情報に対応付けられたものである。これにより、音声データと、曲番号データと、ユーザ情報とが対応付けられることになる。   Further, when the performance of the karaoke music is started, the user sings according to the karaoke music played at that time (hereinafter referred to as the corresponding karaoke music). Then, when the performance of the corresponding karaoke song is completed, in the control unit 28, the CPU 28c executes the accumulation processing program and associates the voice data generated from the user's singing voice with the song number data of the corresponding karaoke song. (Hereinafter, data in which audio data and song number data are associated with each other is also referred to as correspondence data) and is stored in the audio data storage area. However, the audio data storage area in which the correspondence data is stored is associated with the user information of the user who sang the corresponding karaoke song. Thereby, audio | voice data, music number data, and user information are matched.

以降、カラオケ装置20は、カラオケ演奏処理プログラムの実行から、音声データ格納領域に音声データを格納するまでの一連のサイクルを、ユーザがカラオケ楽曲の指定を終了するまで繰り返す。
〈歌唱音域特定処理〉
次に、CPU28cが実行する歌唱音域特定処理について説明する。
Thereafter, the karaoke apparatus 20 repeats a series of cycles from the execution of the karaoke performance processing program to storing the voice data in the voice data storage area until the user finishes specifying the karaoke music.
<Singing range identification processing>
Next, the singing range specifying process executed by the CPU 28c will be described.

ここで、図2は、歌唱音域特定処理の処理手順を示したフローチャートである。
この歌唱音域特定処理は、記憶部21の音声データ格納領域に規定数の音声データが格納された場合、即ち、一人のユーザが規定数分のカラオケ楽曲を歌唱した場合に起動されるものである。
Here, FIG. 2 is a flowchart showing a processing procedure of the singing range identification processing.
This singing sound range identification process is started when a prescribed number of audio data is stored in the audio data storage area of the storage unit 21, that is, when a single user sings a prescribed number of karaoke songs. .

図2に示すように、歌唱音域特定処理が起動されると、まず、S110にて、記憶部21の音声データ格納領域に格納されている全音声データのうち、一つの音声データを取得する。すなわち、図5(A)に示すように、カラオケ楽曲の演奏(即ち、演奏時間の進行)に沿って信号レベルが変化する音声信号を、音声データとして取得する。   As shown in FIG. 2, when the singing sound range specifying process is started, first, at S110, one piece of voice data is acquired from all the voice data stored in the voice data storage area of the storage unit 21. That is, as shown in FIG. 5A, an audio signal whose signal level changes along with the performance of karaoke music (ie, the progress of performance time) is acquired as audio data.

続く、S120では、S110で取得した音声データを周波数解析(本実施形態では、FFT(Fast Fourier Transform))し、音声データの周波数スペクトルを導出する。   Subsequently, in S120, the audio data acquired in S110 is subjected to frequency analysis (in this embodiment, FFT (Fast Fourier Transform)) to derive a frequency spectrum of the audio data.

具体的に、本実施形態におけるS120では、カラオケ楽曲1曲分の音声データを、連続する時間として予め規定された基準時間(例えば、数十ms、即ち、予め規定されたサンプリング数)毎に抽出する(以下、抽出した音声データを対象データと称す)。そして、対象データそれぞれについて周波数解析(即ち、FFT)を実行する。これにより、周波数解析の結果として、各対象データでの周波数スペクトル(即ち、周波数成分の分布)が、全対象データ数分だけ生成される。
さらに、S130では、S120での周波数解析の結果(周波数スペクトル)に基づいて、該当カラオケ楽曲をユーザが歌唱した時の基本周波数f0の時間遷移を表し、本発明の歌唱データに相当する基本周波数遷移f0v(t)を導出する。
Specifically, in S120 in the present embodiment, the audio data for one karaoke piece is extracted for each reference time defined in advance as a continuous time (for example, several tens of ms, ie, a predetermined number of samplings). (Hereinafter, the extracted voice data is referred to as target data). Then, frequency analysis (that is, FFT) is performed for each target data. Thereby, as a result of the frequency analysis, the frequency spectrum (that is, the distribution of frequency components) in each target data is generated by the number of all target data.
Furthermore, in S130, based on the result (frequency spectrum) of the frequency analysis in S120, the time transition of the fundamental frequency f0 when the user sings the corresponding karaoke music is represented, and the fundamental frequency transition corresponding to the song data of the present invention. f0v (t) is derived.

具体的に、本実施形態におけるS130では、櫛型形状で表される調波構造モデルを予め用意し、その調波構造モデルと、各周波数スペクトルとを照合する周知の手法を用いて、対象データについての周波数成分の中から基本周波数f0を検出する。そして、その検出した基本周波数f0を、各対象データの時間遷移、即ち、該当カラオケ楽曲の演奏時間の進行に従って、基本周波数遷移f0v(t)としてまとめる。   Specifically, in S130 in the present embodiment, a harmonic structure model represented by a comb shape is prepared in advance, and the target data is obtained using a known technique for collating the harmonic structure model with each frequency spectrum. The fundamental frequency f0 is detected from the frequency components for. Then, the detected fundamental frequency f0 is collected as a fundamental frequency transition f0v (t) according to the time transition of each target data, that is, the progress of the performance time of the corresponding karaoke piece.

これにより、基本周波数遷移f0v(t)は、図5(B)に示すように、該当カラオケ楽曲を歌唱した時の基本周波数f0の時間変化が表されたものとなる。
続くS140では、S110で取得した音声データと対応付けられている曲番号データに従って、該当カラオケ楽曲のガイドメロディを記憶部21から取得する。
Thereby, the fundamental frequency transition f0v (t) represents the time change of the fundamental frequency f0 when the corresponding karaoke piece is sung, as shown in FIG. 5B.
In subsequent S140, a guide melody of the corresponding karaoke song is acquired from the storage unit 21 in accordance with the song number data associated with the voice data acquired in S110.

そして、S150では、S140にて取得したガイドメロディと、S130で導出された基本周波数遷移f0v(t)とに基づいて、各構成音それぞれに対する発声遅れ時間を表す時間遅延量tl(k)を算出する。   In S150, based on the guide melody acquired in S140 and the fundamental frequency transition f0v (t) derived in S130, a time delay amount tl (k) representing the utterance delay time for each component sound is calculated. To do.

ここで、本実施形態における時間遅延量tl(k)の算出方法について詳しく説明する。ただし、本実施形態において、kは、対応する構成音の演奏の順番を表すものであり、該当カラオケ楽曲の演奏開始から、k番目に演奏されることを表している。したがって、kは、1から、構成音の総数を最大値とした自然数である。   Here, a method of calculating the time delay amount tl (k) in the present embodiment will be described in detail. However, in this embodiment, k represents the order of performance of the corresponding component sounds, and represents that the kth performance is performed from the start of performance of the corresponding karaoke piece. Accordingly, k is a natural number from 1 to the total number of constituent sounds.

まず、ガイドメロディによって表された全構成音の音高の時間変化(即ち、ガイドメロディによる旋律)をガイドメロディ音高とし、k番目の構成音へと音高が切り替わるタイミング(より正確には期間)を音高切替タイミングとする。   First, the time change of the pitch of all the constituent sounds represented by the guide melody (that is, the melody by the guide melody) is set as the guide melody pitch, and the timing at which the pitch is switched to the kth constituent sound (more precisely, the period ) Is the pitch switching timing.

そして、図5(C)に示すように、ガイドメロディ音高に基本周波数遷移f0v(t)を照合することで、基本周波数遷移f0v(t)中での音高切替タイミング(以下、歌唱時切替タイミングと称す)を検出する。なお、ガイドメロディ音高に基本周波数遷移f0v(t)を照合する手法としては、特開2005−107330号公報に記載された周知の手法を用いれば良い。   Then, as shown in FIG. 5C, by comparing the fundamental frequency transition f0v (t) with the guide melody pitch, the pitch switching timing in the fundamental frequency transition f0v (t) (hereinafter, switching at the time of singing) (Referred to as timing). As a method for collating the fundamental frequency transition f0v (t) with the guide melody pitch, a known method described in JP-A-2005-107330 may be used.

さらに、その検出した歌唱時切替タイミングと、ガイドメロディ音高中での音高切替タイミングとの差を時間遅延量tl(k)として算出する。
このように、ガイドメロディ音高と、基本周波数遷移f0v(t)との照合から、時間遅延量tl(k)の算出までの一連の流れを、カラオケ楽曲の時間進行に従って(即ち、kが1からkが最大となるまで、kを順次増加させながら)繰り返す。これにより、全構成音についての時間遅延量tl(k)が求められる。
Further, the difference between the detected singing time switching timing and the pitch switching timing in the guide melody pitch is calculated as a time delay amount tl (k).
As described above, a series of flow from collation of the guide melody pitch and the fundamental frequency transition f0v (t) to calculation of the time delay amount tl (k) is performed according to the time progress of the karaoke music (that is, k is 1). Until k reaches a maximum, repeating k). Thereby, the time delay amount tl (k) for all the constituent sounds is obtained.

つまり、S150では、該当カラオケ楽曲の歌唱時に、各構成音それぞれについて実際に歌唱を開始したとみなせるタイミングとして、歌唱切替時タイミングを特定すると共に、ガイドメロディ音高中での音高切替タイミングからの歌唱時切替タイミングの遅れを求めている。   That is, in S150, when singing the corresponding karaoke song, the timing at which the singing is switched is specified as the timing at which each constituent sound is actually started, and the singing from the pitch switching timing in the guide melody pitch. The delay in time switching timing is being sought.

続くS160では、各構成音に対してユーザが実際に歌唱した期間を対応期間T(k)とし、その対応期間T(k)それぞれにおいて設定値以上の声量で発声していた時間を表す音声持続時間tpc(k)を導出すると共に、各対応期間T(k)での構成音に対応する音高f毎に音声持続時間tpc(k)を集計した結果である音声持続値分布を導出する持続値分布導出処理を実行する。   In subsequent S160, a period in which the user actually sang each constituent sound is defined as a corresponding period T (k), and a voice duration indicating a time during which the voice is uttered with a volume greater than or equal to a set value in each corresponding period T (k). The time tpc (k) is derived and the duration for deriving the voice duration value distribution, which is the result of totaling the voice duration tpc (k) for each pitch f corresponding to the constituent sounds in each corresponding period T (k) Execute value distribution derivation processing.

なお、本実施形態における音声持続値分布とは、図7に示すように、構成音に対応する音高fを横軸とし、集計された音声持続時間tpc(k)(以下、集計持続時間tp(f)とする)を縦軸としたマップである。   In addition, as shown in FIG. 7, the sound duration value distribution in the present embodiment is a summed voice duration tpc (k) (hereinafter, a total duration tp) with the pitch f corresponding to the constituent sounds as a horizontal axis. (F)) is a map with the vertical axis.

さらに、S170では、対応期間T(k)におけるビブラートでの発声の安定度合いを表す歌唱安定度vsi(k)を導出すると共に、各対応期間T(k)での構成音に対応する音高f毎に歌唱安定度vsi(k)を集計した結果である歌唱安定度分布を導出する安定度分布導出処理を実行する。   Further, in S170, the singing stability level vsi (k) representing the degree of stability of the utterance in the vibrato in the corresponding period T (k) is derived, and the pitch f corresponding to the constituent sound in each corresponding period T (k). A stability distribution derivation process for deriving a singing stability distribution, which is the result of totaling the singing stability vsi (k), is performed.

なお、本実施形態における歌唱安定度分布とは、図8に示すように、構成音に対応する音高fを横軸とし、集計された歌唱安定度vsi(k)(以下、集計安定度mvsi(k)とする)を縦軸としたマップである。   Note that the singing stability distribution in the present embodiment, as shown in FIG. 8, uses the pitch f corresponding to the constituent sounds as the horizontal axis, and the total singing stability vsi (k) (hereinafter, total stability mvsi). (K)) is a map with the vertical axis.

さらに、S180にて、記憶部21の音声データ格納領域に格納されている全音声データに対して、S110からS170までの処理(ここでは、規定処理と称す)を実行したか否かを判定する。   Further, in S180, it is determined whether or not the processing from S110 to S170 (herein referred to as “regulation processing”) has been executed for all audio data stored in the audio data storage area of the storage unit 21. .

そして、判定の結果、全音声データに対して規定処理を実行していなければ、S110へと戻り、そのS110にて、記憶部21の音声データ格納領域に格納されている全音声データの中から、規定処理を未実行である音声データを取得して、S120へと進む。   If the result of determination is that the prescribed process has not been executed for all audio data, the process returns to S110, and in S110, from all the audio data stored in the audio data storage area of the storage unit 21. The voice data for which the regulation process has not been executed is acquired, and the process proceeds to S120.

一方、S180での判定の結果、全音声データに対して規定処理を実行済であれば、S190へと進む。
続くS190では、持続値分布導出処理(S160)にて導出した音声持続値分布に従って、第一歌唱音域を特定する。
On the other hand, if the result of determination in S180 is that the defining process has been executed for all audio data, the process proceeds to S190.
In subsequent S190, the first singing range is specified in accordance with the voice duration value distribution derived in the duration value distribution derivation process (S160).

具体的に、本実施形態では、図7に示すような音声持続値分布上において集計持続時間mtpc(k)が、予め規定された規定値以上である最低音高から最高音高までの範囲、即ち、集計持続時間mtpc(f)が規定値以上である最低基本周波数から最高基本周波数までの周波数帯を第一歌唱音域としている。   Specifically, in the present embodiment, a range from the lowest pitch to the highest pitch where the total duration mtpc (k) is equal to or greater than a predefined value on the speech duration distribution as shown in FIG. That is, the frequency band from the lowest fundamental frequency to the highest fundamental frequency in which the total duration mtpc (f) is equal to or greater than a specified value is set as the first singing sound range.

なお、本実施形態における規定値は、音声持続値分布上における集計持続時間mtpc(k)の最大値Mに対して予め規定された割合A(例えば、最大値の半分や、1/3等)として規定されている(規定値=M×A)。   Note that the specified value in this embodiment is a ratio A (for example, half of the maximum value, 1/3, etc.) defined in advance with respect to the maximum value M of the total duration mtpc (k) on the sound duration value distribution. (Specified value = M × A).

また、S200では、安定度分布導出処理(S170)にて導出した歌唱安定度分布に従って、第二歌唱音域を特定する。
具体的に、本実施形態では、図8に示すような歌唱安定度分布上において集計安定度mvsi(f)が、予め規定された特定値以上である最低音高から最高音高までの範囲、即ち、集計安定度mvsi(f)が特定値以上である最低基本周波数から最高基本周波数までの周波数帯を第二歌唱音域としている。
In S200, the second singing sound range is specified according to the singing stability distribution derived in the stability distribution deriving process (S170).
Specifically, in the present embodiment, the total stability mvsi (f) on the singing stability distribution as shown in FIG. 8 is a range from the lowest pitch to the highest pitch that is equal to or higher than a predetermined value, That is, the frequency band from the lowest fundamental frequency to the highest fundamental frequency where the total stability mvsi (f) is a specific value or more is set as the second singing sound range.

なお、本実施形態における特定値は、歌唱安定度分布上における集計安定度mvsi(f)の最大値Mに対して予め規定された割合A(例えば、最大値の半分や、1/3等)として規定されている(規定値=M×A)。   The specific value in the present embodiment is a ratio A (for example, half of the maximum value, 1/3, etc.) defined in advance with respect to the maximum value M of the total stability mvsi (f) on the singing stability distribution. (Specified value = M × A).

そして、S210では、S190で特定された第一歌唱音域と、S200で特定された第二歌唱音域とに基づいて、それら第一歌唱音域と第二歌唱音域とが重複する音域(周波数帯)を、ユーザが確実に歌唱可能な音域(以下、決定歌唱音域)として特定する。   In S210, based on the first singing range specified in S190 and the second singing range specified in S200, a range (frequency band) in which the first singing range and the second singing range overlap. , It is specified as a range where the user can reliably sing (hereinafter referred to as a determined singing range).

続く、S220では、S190で特定した第一歌唱音域、S200で特定した第二歌唱音域、及びS210で特定した決定歌唱音域の全歌唱音域を表示部23及びスピーカ27を介してユーザに報知すると共に、その特定した全歌唱音域を記憶部21及びサーバ30に記憶する特定音域利用処理を実行する。さらに、本実施形態の特定音域利用処理では、全構成音中の最低音高と最高音高との両方が決定歌唱音域内であるカラオケ楽曲を全カラオケ楽曲の中から検出し、その検出したカラオケ楽曲を推奨曲としてユーザに提案する。   In S220, the first singing sound range specified in S190, the second singing sound range specified in S200, and the entire singing sound range specified in S210 are notified to the user via the display unit 23 and the speaker 27. Then, a specific range use process for storing the specified entire singing range in the storage unit 21 and the server 30 is executed. Furthermore, in the specific range use processing of the present embodiment, the karaoke music in which both the lowest pitch and the highest pitch in all the constituent sounds are within the determined singing range is detected from all the karaoke music, and the detected karaoke Suggest a song to the user as a recommended song.

そして、その後、本歌唱音域特定処理を終了する。
〈持続値分布導出処理〉
次に、持続値分布導出処理について説明する。
Then, the present singing range specifying process is terminated.
<Sustained value distribution derivation process>
Next, the continuous value distribution derivation process will be described.

ここで、図3は、持続値分布導出処理の処理手順を示したフローチャートである。
この持続値分布導出処理は、図3に示すように、歌唱音域特定処理のS160にて起動されると、まず、S310にて、各対応期間T(k)における音声データを歌唱音声区間vo1(t)として抽出する。
Here, FIG. 3 is a flowchart showing a processing procedure of the continuous value distribution derivation processing.
As shown in FIG. 3, when the continuous value distribution derivation process is started in S160 of the singing range specification process, first, in S310, the voice data in each corresponding period T (k) is converted into the singing voice section vo1 ( Extract as t).

具体的に、本実施形態では、まず、各構成音についての歌唱時切替タイミングに基づいて、各対応期間T(k)を導出する。
なお、対応期間T(k)は、k番目の構成音に対する歌唱時切替タイミング(即ち、楽音出力開始時間st(k)+時間遅延量tl(k))を、その対応期間T(k)の開始タイミングとする。さらに、対応期間T(k)の時間長tt(k)は、k番目の構成音に対する歌唱時切替タイミングと、k+1番目の構成音に対する歌唱時切替タイミングとの差として求められ、0[s]から、k番目の構成音の音価(即ち、構成音を出力している時間)len(k)[s]までの範囲内となる。すなわち、k番目の構成音について、ユーザが全期間にわたって歌唱できれば、時間長tt(k)は構成音の音価len(k)[s]となり、ユーザが全期間にわたって歌唱できなければ、時間長tt(k)は0[s]となる。
Specifically, in the present embodiment, first, each corresponding period T (k) is derived based on the singing time switching timing for each component sound.
Note that the corresponding period T (k) is the singing time switching timing for the k-th component sound (ie, the musical sound output start time st (k) + time delay amount tl (k)) of the corresponding period T (k). Start timing. Furthermore, the time length tt (k) of the corresponding period T (k) is obtained as a difference between the singing time switching timing for the kth constituent sound and the singing time switching timing for the k + 1th constituent sound, and is 0 [s]. To the k-th component sound value (ie, the time during which the component sound is output) len (k) [s]. That is, for the kth component sound, if the user can sing for the entire period, the time length tt (k) becomes the note value len (k) [s] of the component sound, and if the user cannot sing for the entire period, the time length tt (k) is 0 [s].

そして、その導出された各対応期間T(k)における音声データを歌唱音声区間vo1(t)として、下記(1)式に従って抽出する。ただし、(1)式中のst(k)+tl(k)+tt(k)が対応期間T(k)に相当する。   And the audio | voice data in each derived | led-out corresponding period T (k) are extracted according to the following (1) Formula as singing voice area vo1 (t). However, st (k) + tl (k) + tt (k) in the equation (1) corresponds to the corresponding period T (k).

これにより抽出された歌唱音声区間vo1(t)は、図6(A)に示すように、構成音に対する発声時間の遅れを考慮したものとなり、各構成音に対してユーザが実際に歌唱したタイミング及び時間に対応した音声データとなる。 As shown in FIG. 6 (A), the extracted singing voice section vo1 (t) takes into account the delay in the utterance time with respect to the constituent sounds, and the timing at which the user actually sang each constituent sound. And the audio data corresponding to the time.

続く、S320では、S310で抽出した歌唱音声区間vo1(t)それぞれに基づき、対応する各対応期間T(k)よりも短い単位時間(以下、時間窓と称す)毎の音声パワーの平均値(本発明の声量値の一例、以下、平均音声パワーとする)Pw(m)を導出する。   Subsequently, in S320, based on each of the singing voice sections vo1 (t) extracted in S310, the average value of voice power for each unit time (hereinafter referred to as a time window) shorter than the corresponding corresponding period T (k) ( An example of the voice volume value of the present invention, hereinafter referred to as average voice power) Pw (m) is derived.

具体的に、本実施形態のS320では、下記(2)式に従って、各時間窓での平均音声パワーPw(m)を導出する。   Specifically, in S320 of the present embodiment, the average voice power Pw (m) in each time window is derived according to the following equation (2).

ただし、(2)式において、mは、時間窓のインデックス番号(即ち、対応する時間窓が対応期間T(k)の開始から何番目であるかを識別するための符号、以下、時間窓番号とする)であり、Twは、時間窓として規定された単位時間(本実施形態では、数十msとする)である。 However, in the expression (2), m is a time window index number (that is, a code for identifying the number of the corresponding time window from the start of the corresponding period T (k), hereinafter the time window number. Tw is a unit time defined as a time window (in this embodiment, it is several tens of ms).

つまり、S320では、まず、図5(B)に示すように、歌唱音声区間vo1(t)に含まれているサンプリング値それぞれを二乗したパワー値を算出する。次に、歌唱音声区間vo1(t)それぞれを時間窓毎に区切り、各時間窓毎にパワー値を積分(即ち、各時間窓における全パワー値の和を導出)する。そして、積分されたパワー値それぞれを、時間窓として規定された単位時間TWで除することで、平均音声パワーPw(m)を導出する。   That is, in S320, first, as shown in FIG. 5B, a power value obtained by squaring each sampling value included in the singing voice section vo1 (t) is calculated. Next, each singing voice section vo1 (t) is divided for each time window, and the power value is integrated for each time window (that is, the sum of all power values in each time window is derived). Then, by dividing each integrated power value by a unit time TW defined as a time window, an average voice power Pw (m) is derived.

続く、S330では、S320で導出された平均音声パワーPw(m)それぞれに基づいて、各対応期間T(k)についての音声持続時間tpc(k)(即ち、本発明の音声持続値に相当)を導出する。   Subsequently, in S330, based on each of the average voice powers Pw (m) derived in S320, the voice duration tpc (k) for each corresponding period T (k) (that is, corresponding to the voice duration value of the present invention). Is derived.

具体的に、本実施形態のS330では、まず、各時間窓での平均音声パワーPw(m)の中で、値が予め規定された規定パワー以上であり、かつ最大である最大音声パワーPwmaxを検出し、その最大音声パワーPwmaxに対応する時間窓番号(以下、この時間窓番号には、符号m0を付す)を特定する。   Specifically, in S330 of the present embodiment, first, among the average voice power Pw (m) in each time window, the maximum voice power Pwmax whose value is equal to or greater than a prescribed power that is prescribed in advance and is the maximum. The time window number corresponding to the maximum sound power Pwmax is detected (hereinafter, the time window number is denoted by the symbol m0).

次に、各時間窓の時間進行上、時間窓番号m0の後であり、かつ平均音声パワーPw(m)の値が最大音声パワーPwmaxの半分にまで減衰した平均音声パワーPw(m)に対応する時間窓番号(以下、この時間窓番号には、符号mpを付す、即ち、時間窓番号mpは、時間窓番号m0以上である)を特定する。   Next, in the time progress of each time window, it corresponds to the average voice power Pw (m) after the time window number m0 and the value of the average voice power Pw (m) attenuated to half of the maximum voice power Pwmax. Time window number (hereinafter, the time window number is given a code mp, that is, the time window number mp is equal to or greater than the time window number m0).

さらに、特定された時間窓番号mpに基づいて、下記(3)式により、音声持続時間tpc(k)を導出する。   Furthermore, based on the specified time window number mp, the voice duration tpc (k) is derived by the following equation (3).

つまり、S330では、図5(C)に示すように、各対応期間T(k)の開始時間(即ち、開始タイミング)から、平均音声パワーPw(m)の値が最大音声パワーPwmaxの半分まで減衰するまでに要する時間を、音声持続時間tpc(k)として導出している。 That is, in S330, as shown in FIG. 5C, from the start time (that is, start timing) of each corresponding period T (k), the value of the average voice power Pw (m) is half of the maximum voice power Pwmax. The time required for attenuation is derived as the voice duration tpc (k).

さらに、S340では、S330で導出した音声持続時間tpc(k)それぞれに基づいて、音声持続値分布を生成する。
具体的に、本実施形態では、下記の(4)式を用いて、対応期間T(k)に対応する構成音の音高f毎に音声持続時間tpc(k)それぞれを集計し、集計持続時間tp(f)を導出する。
Further, in S340, a voice duration value distribution is generated based on each voice duration tpc (k) derived in S330.
Specifically, in the present embodiment, each of the voice durations tpc (k) is tabulated for each pitch f of the constituent sounds corresponding to the corresponding period T (k) using the following equation (4), and the tabulation duration is continued. The time tp (f) is derived.

ただし、(4)式において、fは、構成音の音高であり、k'は、音高fと等しい構成音を表す識別番号(上述したk番目や、k+1番目に相当)の集合、K0は、音高fが等しい構成音の総数である。 However, in the equation (4), f is the pitch of the constituent sound, and k ′ is a set of identification numbers (corresponding to the k-th and k + 1-th mentioned above) representing the constituent sound equal to the pitch f, K0. Is the total number of constituent sounds having the same pitch f.

つまり、集計持続時間tp(f)は、音高fと等しい構成音についての全音声持続時間tpc(k)を、対応する構成音の音価len(k)が長いほど大きな値となるように重み付けして集計し、さらに、音高fと等しい構成音の総数K0にて除した、即ち、正規化したものである。   That is, the total duration tp (f) is such that the total speech duration tpc (k) for the constituent sound equal to the pitch f becomes a larger value as the sound value len (k) of the corresponding constituent sound is longer. Weighted and aggregated, and further divided by the total number K0 of constituent sounds equal to the pitch f, that is, normalized.

なお、集計持続時間tp(f)は、該当カラオケ楽曲中に登場する全音高fに対して導出される。そして、その導出した集計持続時間tp(f)の音高fに対する分布を、音声持続値分布として導出する。   The total duration tp (f) is derived with respect to the whole pitch f appearing in the corresponding karaoke music piece. Then, the distribution of the derived total duration tp (f) with respect to the pitch f is derived as a speech duration value distribution.

ただし、本実施形態では、S340へと進んだ回数が二回目以降である場合、そのサイクル(即ち、今回のS340)にて導出した集計持続時間tp(f)を、前サイクルにて(即ち、前回のS340以前に)導出された集計持続時間tp(f)に積算する。つまり、本実施形態における音声持続値分布には、各音声データから導出される集計持続時間tp(f)が全て積算されている。   However, in the present embodiment, when the number of times of proceeding to S340 is the second time or later, the total duration tp (f) derived in that cycle (that is, current S340) is set to the previous cycle (that is, that is, Integration is performed on the calculated total duration tp (f) (before the previous S340). That is, the total duration tp (f) derived from each piece of voice data is integrated in the voice duration value distribution in this embodiment.

そして、その後、歌唱音域特定処理のS170へと戻る。
〈安定度分布導出処理〉
次に、安定度分布導出処理について説明する。
After that, the process returns to S170 of the singing range identification process.
<Stability distribution derivation process>
Next, the stability distribution derivation process will be described.

ここで、図4は、安定度分布導出処理の処理手順を示したフローチャートである。
この安定度分布導出処理は、図4に示すように、歌唱音域特定処理のS170にて起動されると、まず、S410にて、各対応期間T(k)における基本周波数遷移f0v(t)を歌唱区間f0vn(t)として抽出する。
Here, FIG. 4 is a flowchart showing a processing procedure of the stability distribution derivation processing.
As shown in FIG. 4, when the stability distribution deriving process is started in S170 of the singing range specifying process, first, in S410, the fundamental frequency transition f0v (t) in each corresponding period T (k) is obtained. Extracted as a singing section f0vn (t).

続く、S420では、S410で抽出した歌唱区間f0vn(t)それぞれ(即ち、基本周波数の時間遷移)を周波数解析(本実施形態では、FFT)し、その結果を表すビブラートスペクトルを導出する。   In S420, the singing section f0vn (t) extracted in S410 (that is, time transition of the fundamental frequency) is subjected to frequency analysis (in this embodiment, FFT), and a vibrato spectrum representing the result is derived.

つまり、S420にて導出されるビブラートスペクトルは、歌唱区間f0vn(t)に対応する各対応期間T(k)をユーザが歌唱した時のビブラートの振動数成分(以下、振動数成分それぞれをビブラート振動数gとする)の分布を表すものとなる。   That is, the vibrato spectrum derived in S420 is the vibrato frequency component when the user sings each corresponding period T (k) corresponding to the singing section f0vn (t) (hereinafter, each of the frequency components is vibrato vibration). A distribution of several g).

そして、S430では、S420で導出されるビブラートスペクトル(即ち、周波数解析の結果)それぞれに基づいて、歌唱区間f0vn(t)に対応する対応期間T(k)でのビブラートによる発声の安定度合い、即ち、歌唱安定度vsi(k)を導出する。   In S430, based on the vibrato spectrum derived in S420 (that is, the result of frequency analysis), the degree of utterance stability by vibrato in the corresponding period T (k) corresponding to the singing section f0vn (t), that is, Then, singing stability vsi (k) is derived.

具体的に、本実施形態では、ビブラートスペクトルにおける振動数ピークを検出し、さらに、検出した振動数ピークの中から、振幅値P0(g)が最大値P0mとなる振動数ピークを最大振動数ピークとして検出する。   Specifically, in the present embodiment, the frequency peak in the vibrato spectrum is detected, and the frequency peak at which the amplitude value P0 (g) is the maximum value P0m is detected from the detected frequency peaks. Detect as.

そして、最大振動数ピークの振幅値P0(g)(即ち、最大値P0m)を1/2乗した値を実効値とし、最大振動数ピークの振動数成分(以下、ピークビブラート振動数g0とする)を挟み、かつ振幅値P0(g)が実効値となるビブラート振動数の帯域(即ち、幅)を実効帯域gwとして求める。   Then, a value obtained by multiplying the amplitude value P0 (g) (that is, the maximum value P0m) of the maximum frequency peak by 1/2 is an effective value, and the frequency component of the maximum frequency peak (hereinafter referred to as peak vibrato frequency g0). ) And the vibrato frequency band (that is, the width) in which the amplitude value P0 (g) is an effective value is obtained as the effective band gw.

さらに、ピークビブラート振動数g0を実効帯域gwで除することにより、対応期間T(k)に対応する構成音についての歌唱安定度vsi(k)として、先鋭度Q(Q=gm/gw)を導出する。   Further, by dividing the peak vibrato frequency g0 by the effective band gw, the sharpness Q (Q = gm / gw) is obtained as the singing stability vsi (k) for the constituent sound corresponding to the corresponding period T (k). To derive.

なお、安定した(理想的な)ビブラートにより歌唱されていれば、ビブラートスペクトル上において検出される振動数ピークは、一つだけであり、実効帯域gwは小さなもの、即ち、最大振動数ピークは鋭くなる。このため、ビブラートにより安定して歌唱されていれば、歌唱安定度vsi(k)は大きな値となる。   If the song is sung by a stable (ideal) vibrato, there is only one frequency peak detected on the vibrato spectrum, and the effective band gw is small, that is, the maximum frequency peak is sharp. Become. For this reason, if the song is stably sung by vibrato, the singing stability vsi (k) becomes a large value.

続く、S440では、S430で導出した歌唱安定度vsi(k)それぞれに基づいて、集計安定度mvsi(f)を導出し、歌唱安定度分布を生成する。
具体的に、本実施形態における集計安定度mvsi(f)は、音高fと等しい構成音についての全歌唱安定度vsi(k)を、対応する構成音の音価len(k)が長いほど大きな値となるように重み付けして集計し、さらに、音高fと等しい構成音の総数K0にて除した、即ち、正規化したものである。
In S440, the total stability mvsi (f) is derived based on each of the singing stability vsi (k) derived in S430, and a singing stability distribution is generated.
Specifically, the total stability mvsi (f) in the present embodiment is the total singing stability vsi (k) for the constituent sound equal to the pitch f, and the longer the note value len (k) of the corresponding constituent sound is, the longer it is. Weighted so as to be a large value, tabulated and further divided by the total number K0 of constituent sounds equal to the pitch f, that is, normalized.

なお、集計安定度mvsi(f)は、該当カラオケ楽曲中に登場する全音高fに対して導出される。そして、導出した集計安定度mvsi(f)それぞれを、対応する音高fと対応付けることで、歌唱安定度分布を導出する。   The total stability mvsi (f) is derived for the whole pitch f appearing in the corresponding karaoke music piece. Then, the singing stability distribution is derived by associating each derived total stability mvsi (f) with the corresponding pitch f.

ただし、本実施形態では、S440へと進んだ回数が二回目以降である場合、そのサイクルにて導出した集計安定度mvsi(f)を、前サイクルにて導出された集計安定度mvsi(f)に積算する。つまり、本実施形態における歌唱安定度分布には、各音声データから導出される集計安定度mvsi(f)が全て積算されている。   However, in the present embodiment, when the number of times of advance to S440 is the second or later, the total stability mvsi (f) derived in the cycle is replaced with the total stability mvsi (f) derived in the previous cycle. Is accumulated. That is, the total stability mvsi (f) derived from each audio data is integrated in the singing stability distribution in the present embodiment.

そして、その後、歌唱音域特定処理のS180へと進む。
つまり、本実施形態の歌唱音域特定処理では、各対応期間T(k)における音声データに基づいて、設定値以上の声量で継続して発声していた時間を表す音声持続時間tpc(k)を導出する。さらに、各対応期間T(k)での構成音に対応する音高f毎に音声持続時間tpc(k)を集計した集計持続時間tp(f)を導出する。
Then, the process proceeds to S180 of the singing range identification process.
That is, in the singing range identification processing of the present embodiment, the voice duration time tpc (k) representing the time during which the voice was continuously spoken with a voice volume equal to or greater than the set value based on the voice data in each corresponding period T (k). To derive. Furthermore, the total duration tp (f) obtained by summing up the voice duration tpc (k) for each pitch f corresponding to the constituent sounds in each corresponding period T (k) is derived.

このことから、集計持続時間tp(f)は、設定値以上の声量で継続して発声可能である音高fであれば、値が大きくなり、設定値以上の声量で継続して発声できない音高fであれば、値が小さくなる。
[実施形態の効果]
以上説明したように、本実施形態の歌唱音域特定処理では、予め設定された設定値以上の声量にて、ユーザが安定して歌唱できる音高の範囲を第一歌唱音域として判定している。
From this, the total duration tp (f) increases if the pitch f can be continuously uttered with a volume greater than or equal to the set value, and the sound cannot be continuously uttered with the volume greater than or equal to the set value. If it is high f, the value becomes small.
[Effect of the embodiment]
As described above, in the singing sound range specifying process of the present embodiment, the range of the pitch that can be stably sung by the user with a voice volume equal to or higher than a preset setting value is determined as the first singing sound range.

そして、ユーザが無理をして発声した状態では、一定レベル以上の声量で発声を安定させることが困難であることから、本発明のカラオケシステム1によれば、ユーザが無理をすること無く歌唱可能な音域を特定することができる。   And, in a state where the user utters utterance, it is difficult to stabilize the utterance with a volume higher than a certain level, so according to the karaoke system 1 of the present invention, the user can sing without undue effort. Can be identified.

また、本実施形態の歌唱音域特定処理では、集計持続時間tp(f)を正規化した値として導出している。つまり、歌唱の上手なユーザほど、構成音の音高それぞれについての集計持続時間tp(f)が最大値に近い値となり、歌唱の下手なユーザほど、最大値と、最大値に対応しない音高それぞれについての集計持続時間tp(f)との値の差が大きくなる。   Further, in the singing range identification processing of the present embodiment, the total duration tp (f) is derived as a normalized value. That is, as the user who is good at singing, the total duration tp (f) for each pitch of the constituent sounds becomes a value close to the maximum value, and as the user who is good at singing, the maximum value and the pitch not corresponding to the maximum value are obtained. The difference in value from the total duration tp (f) for each increases.

さらに、本実施形態の歌唱音域特定処理では、対応する対応期間T(k)での構成音の音価len(k)が長いほど大きな値となるように重み付けして、集計持続時間tp(f)を導出している。このため、本実施形態の歌唱音域特定処理では、構成音の音価(即ち、構成音を出力する時間長)が長いほど、その構成音に対して設定値以上の声量にて発声を持続することが難しくなることを考慮した集計持続時間tp(f)が導出される。   Further, in the singing range identification processing of the present embodiment, weighting is performed such that the longer the note value len (k) of the component sound in the corresponding corresponding period T (k), the larger the value, and the total duration tp (f ). For this reason, in the singing sound range specifying process of the present embodiment, the longer the tone value of the constituent sound (that is, the length of time for outputting the constituent sound), the longer the utterance is sustained with a voice volume equal to or higher than the set value for the constituent sound. The total duration tp (f) is derived in consideration of the fact that it becomes difficult.

これらの結果、本実施形態の歌唱音域特定処理によれば、ユーザの歌唱レベル(技量)に拘わらず、ユーザの歌唱音域を適切に判定すること、言い換えれば、ユーザが無理すること無く発声可能な音域(即ち、歌唱音域)を、より確実に特定することができる。   As a result, according to the singing range specification processing of the present embodiment, it is possible to appropriately determine the user's singing range regardless of the user's singing level (skill), in other words, the user can speak without overdoing it. A sound range (that is, a singing sound range) can be specified more reliably.

したがって、本実施形態のカラオケシステム1において、主として特定した歌唱音域内で音高が変化する楽曲を推奨曲としてユーザに提案するようにすれば、ユーザにカラオケをより楽しませることができる。   Therefore, in the karaoke system 1 of the present embodiment, if a song whose pitch changes mainly within the specified singing sound range is proposed to the user as a recommended song, the user can be more enjoyed with karaoke.

また、本実施形態の歌唱音域特定処理では、各対応期間T(k)における歌唱安定度vsi(k)に基づいて、第二歌唱音域を特定し、その第二歌唱音域と、第一歌唱音域とが重複する周波数帯を決定歌唱音域として特定している。   In the singing range specification processing of the present embodiment, the second singing range is specified based on the singing stability vsi (k) in each corresponding period T (k), the second singing range and the first singing range. Is identified as the determined singing range.

このため、本実施形態の歌唱音域特定処理によれば、ユーザがより確実に歌唱可能な音域を決定歌唱音域として特定することができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において様々な態様にて実施することが可能である。
For this reason, according to the singing sound range specification process of this embodiment, the sound range in which the user can sing more reliably can be specified as the determined singing sound range.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記実施形態では、歌唱音域特定処理の起動タイミングを、一人のユーザが規定数分のカラオケ楽曲を歌唱した場合としていたが、歌唱音域特定処理の起動タイミングは、上記実施形態に限るものではなく、操作受付部24を介してユーザから起動指令を受け付けた場合であっても良いし、一つのカラオケ楽曲に対して歌唱が終了した時であっても良い。つまり、歌唱音域特定処理の起動タイミングは、処理対象である音声データが存在していれば、どのようなタイミングであっても良い。   For example, in the above-described embodiment, the activation timing of the singing sound range specifying process is set as a case where one user sings a predetermined number of karaoke songs, but the starting timing of the singing sound range specifying process is not limited to the above embodiment. Instead, it may be a case where an activation command is received from the user via the operation reception unit 24, or may be a time when singing is completed for one karaoke piece. In other words, the activation timing of the singing sound range identification process may be any timing as long as the audio data to be processed exists.

また、上記実施形態の持続値分布導出処理におけるS320では、平均音声パワーPw(m)を、サンプリング値(音声信号の信号レベル)を二乗した値を時間窓毎に平均することで導出していたが、平均音声パワーPw(m)の導出方法は、これに限るものではなく、例えば、時間窓内の音声信号の信号レベル(即ち、振幅の絶対値)を平均した値でも良い。   In S320 in the continuous value distribution derivation process of the above embodiment, the average voice power Pw (m) is derived by averaging a value obtained by squaring the sampling value (signal level of the voice signal) for each time window. However, the method of deriving the average voice power Pw (m) is not limited to this, and may be a value obtained by averaging the signal level (that is, the absolute value of the amplitude) of the voice signal within the time window, for example.

さらに、上記実施形態の持続値分布導出処理におけるS330では、各対応期間T(k)の開始時間から、平均音声パワーPw(m)の値が最大音声パワーPwmaxの半分に減衰するまでに要する時間(以下、実持続時間とする)そのものを、音声持続時間tpc(k)としていたが、音声持続時間tpc(k)は、これに限るものではない。例えば、実持続時間を、対応する構成音の音価(即ち、構成音の時間長)で除したものを音声持続時間tpc(k)としてもよい。即ち、構成音の音価に対する実持続時間の比を、音声持続時間tpc(k)としても良い。   Furthermore, in S330 in the sustained value distribution derivation process of the above embodiment, the time required from the start time of each corresponding period T (k) until the value of the average voice power Pw (m) attenuates to half of the maximum voice power Pwmax. Although the voice duration time tpc (k) is used as the actual duration time (hereinafter referred to as the actual duration time), the voice duration time tpc (k) is not limited to this. For example, the voice duration tpc (k) may be obtained by dividing the actual duration by the value of the corresponding constituent sound (that is, the time length of the constituent sound). That is, the ratio of the actual duration to the tone value of the constituent sounds may be the voice duration tpc (k).

ところで、上記実施形態の持続値分布導出処理におけるS340では、集計持続時間tp(f)を導出する時の正規化の方法として、音声持続時間tpc(k)を集計した結果を構成音の総数で除していたが、正規化の方法は、これに限るものはなく、例えば、同一音高についての構成音の総演奏時間で除しても良いし、その他の方法でも良い。   By the way, in S340 in the continuous value distribution derivation process of the above embodiment, as a normalization method for deriving the total duration tp (f), the result of totaling the voice duration tpc (k) is used as the total number of constituent sounds. However, the normalization method is not limited to this. For example, the normalization method may be divided by the total performance time of the constituent sounds for the same pitch, or may be other methods.

さらには、S340において、集計持続時間tp(f)を導出する時に正規化を実行しなくとも良い。
また、上記実施形態の持続値分布導出処理におけるS340では、集計持続時間tp(f)を導出する時に、構成音の音価が長いほど大きな重みを付して音声持続時間tpc(k)を集計していたが、重み付けは実行されなくとも良い。
Furthermore, in S340, normalization may not be performed when deriving the total duration tp (f).
In S340 in the continuous value distribution derivation process of the above embodiment, when deriving the total duration tp (f), the longer the tone value of the constituent sounds, the greater the weight is given and the total voice duration tpc (k) is totaled. However, weighting may not be performed.

そして、上記実施形態の持続値分布導出処理におけるS340では、構成音の音高毎に音声持続時間tpc(k)それぞれを集計することで集計持続時間tp(f)を導出していたが、集計持続時間tp(f)の導出方法は、これに限るものではなく、例えば、下記の(5)式に基づいて導出しても良い。   In S340 in the continuous value distribution derivation process of the above embodiment, the total duration tp (f) is derived by totaling the voice durations tpc (k) for each pitch of the constituent sounds. The method for deriving the duration tp (f) is not limited to this, and may be derived based on the following equation (5), for example.

ただし、(5)式におけるk'は、音高fと等しい構成音、かつその構成音の音価(即ち、音声を出力する時間長)が予め設定された設定時間以上であることを表す構成音の識別番号(上述したk番目や、k+1番目に相当)の集合である。 However, k ′ in the equation (5) represents a constituent sound equal to the pitch f and a value of the constituent sound (that is, a time length for outputting the sound) is equal to or longer than a preset set time. This is a set of sound identification numbers (corresponding to the k-th and k + 1-th mentioned above).

つまり、集計持続時間tp(f)は、構成音に対応する音符の種類(例えば、二分音符や、四分音符など)毎に、音声持続時間tpc(k)それぞれを集計したものでも良い。
この場合、ユーザが設定値以上の声量で継続(安定)して発声可能な構成音の音価(時間長)を特定することができる。
That is, the total duration tp (f) may be a total of the voice durations tpc (k) for each type of note (for example, a half note or a quarter note) corresponding to the constituent sounds.
In this case, it is possible to specify the tone value (time length) of the constituent sound that the user can continuously (stable) with a voice volume equal to or higher than the set value.

なお、上記実施形態の歌唱音域特定処理のS210では、第一歌唱音域と第二歌唱音域との両方が含まれる音域を決定歌唱音域として特定していたが、決定歌唱音域の特定方法はこれに限るものではなく、例えば、第一歌唱音域と第二歌唱音域との少なくとも一方が含まれる音域を決定歌唱音域として特定しても良いし、第一歌唱音域のみからなる音域を決定歌唱音域として特定しても良い。   In S210 of the singing sound range specifying process of the above embodiment, the sound range including both the first singing sound range and the second singing sound range is specified as the determined singing sound range. For example, a range including at least one of the first singing range and the second singing range may be specified as the determined singing range, or a range consisting only of the first singing range is specified as the determined singing range You may do it.

つまり、後者の場合、上記実施形態の歌唱音域特定処理におけるS160での安定度分布導出処理、及びS200での第二歌唱音域の判定は、省略されていても良い。
また、上記実施形態における特定音域利用処理では、特定した各歌唱音域をユーザに報知したり、特定した決定歌唱音域に基づくカラオケ楽曲を推奨曲としてユーザに提案したりしていたが、特定音域利用処理にて実行される処理内容は、これに限るものではない。例えば、特定した決定歌唱音域が狭いほど、採点を厳しくするように採点に用いても良い。
That is, in the latter case, the stability distribution derivation process in S160 and the determination of the second singing sound range in S200 in the singing sound range specifying process of the above embodiment may be omitted.
In the specific range use processing in the above embodiment, the specified singing range is notified to the user, or karaoke music based on the specified determined singing range is proposed to the user as a recommended song. The processing content executed in the processing is not limited to this. For example, it may be used for scoring so that the narrower the determined singing sound range is, the more severe the scoring is.

さらに、上記実施形態の歌唱音域特定処理では、音声持続値分布、及び歌唱安定度分布それぞれは、集計持続時間tp(f)または集計安定度mvsi(f)を、構成音に対応する音高と対応付けたマップとして導出されていたが、音声持続値分布または歌唱安定度分布は、マップに限るものではなく、集計持続時間tp(f)または集計安定度mvsi(f)を、構成音に対応する音高と対応付けられたものであれば、どのようなものであっても良い。   Furthermore, in the singing range identification process of the above embodiment, the voice duration value distribution and the singing stability distribution are respectively set to the total duration tp (f) or the total stability mvsi (f) and the pitch corresponding to the constituent sounds. Although it was derived as an associated map, the voice duration value distribution or the singing stability distribution is not limited to the map, and the total duration tp (f) or the total stability mvsi (f) corresponds to the constituent sounds. Anything can be used as long as it is associated with the pitch to be played.

なお、上記実施形態では、カラオケ装置20の制御部28にて歌唱音域特定処理を実行していたが、歌唱音域特定処理は、サーバ30のマイクロコンピュータにて実行されても良い。この場合、音声データは、サーバ30の記憶装置に格納されていることが望ましい。
[本発明と本実施形態との対応]
ところで、歌唱音域特定処理のS110を実行することで得られる機能が、本発明の音声信号取得手段に相当し、S120,S130を実行することで得られる機能が、本発明の歌唱データ生成手段に相当し、S140を実行することで得られる機能が、本発明の楽曲データ取得手段に相当する。また、歌唱音域特定処理のS150、及び持続値分布導出処理のS310を実行することで得られる機能が、本発明の歌唱区間特定手段に相当し、持続値分布導出処理のS320,S330を実行することで得られる機能が、本発明の持続値導出手段に相当する。さらに、持続値分布導出処理のS340、及び歌唱音域特定処理のS190を実行することで得られる機能が、本発明の第一音域判定手段に相当する。
In the above embodiment, the singing range specifying process is executed by the control unit 28 of the karaoke apparatus 20, but the singing range specifying process may be executed by the microcomputer of the server 30. In this case, the audio data is preferably stored in the storage device of the server 30.
[Correspondence between the present invention and this embodiment]
By the way, the function obtained by executing S110 of the singing sound range specifying process corresponds to the audio signal acquiring means of the present invention, and the function obtained by executing S120 and S130 is the singing data generating means of the present invention. The function obtained by executing S140 corresponds to the music data acquisition unit of the present invention. Further, the function obtained by executing S150 of the singing range specifying process and S310 of the continuous value distribution deriving process corresponds to the singing section specifying means of the present invention, and executes S320 and S330 of the continuous value distribution deriving process. The function obtained by this corresponds to the sustained value deriving means of the present invention. Furthermore, the function obtained by executing S340 of the continuous value distribution deriving process and S190 of the singing range specifying process corresponds to the first range determining means of the present invention.

さらに、安定度分布導出処理のS430を実行することで得られる機能が、本発明の安定度導出手段に相当し、安定度導出処理のS440及び歌唱音域特定処理のS200を実行することで得られる機能が、本発明の第二歌唱音域判定手段に相当する。   Furthermore, the function obtained by executing S430 of the stability distribution deriving process corresponds to the stability deriving means of the present invention, and is obtained by executing S440 of the stability deriving process and S200 of the singing sound range specifying process. The function corresponds to the second singing range determination means of the present invention.

なお、歌唱音域特定処理のS210を実行することで得られる機能が、本発明の歌唱音域特定手段に相当する。   The function obtained by executing S210 of the singing range specification process corresponds to the singing range specification unit of the present invention.

カラオケシステムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a karaoke system. 歌唱音域特定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a singing sound range specific process. 持続値分布導出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a continuous value distribution derivation process. 安定度分布導出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of stability distribution derivation processing. 歌唱音域特定処理の処理内容を模式的に示した模式図である。It is the schematic diagram which showed typically the processing content of the song range identification process. 持続値分布導出処理の処理内容を模式的に示した模式図である。It is the schematic diagram which showed typically the processing content of the continuous value distribution derivation processing. 第一歌唱音域を判定する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of determining a 1st song sound range. 第二歌唱音域を判定する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of determining a 2nd song sound range.

符号の説明Explanation of symbols

1…カラオケシステム 20…カラオケ装置 21…記憶部 22…通信部 23…表示部 24…操作受付部 25…音声入出力部 26…マイクロホン 27…スピーカ 28…制御部 28a…ROM 28b…RAM 28c…CPU 30…サーバ DESCRIPTION OF SYMBOLS 1 ... Karaoke system 20 ... Karaoke apparatus 21 ... Memory | storage part 22 ... Communication part 23 ... Display part 24 ... Operation reception part 25 ... Voice input / output part 26 ... Microphone 27 ... Speaker 28 ... Control part 28a ... ROM 28b ... RAM 28c ... CPU 30 ... Server

Claims (7)

ユーザによる楽曲の歌唱時における音声信号を取得する音声信号取得手段と、
前記音声信号取得手段で取得した音声信号を周波数解析することで、歌唱の音高の推移を表す歌唱データを生成する歌唱データ生成手段と、
前記楽曲を構成する構成音それぞれの音高及び音価を表す楽曲データを取得する楽曲データ取得手段と、
前記歌唱データ生成手段で生成した歌唱データを、前記楽曲データと照合することで、前記構成音それぞれに対応する区間である歌唱区間を特定する歌唱区間特定手段と、
前記歌唱区間特定手段で特定された歌唱区間毎に、予め設定された設定値以上の声量で前記ユーザが発声していた時間が長いほど大きな値となる音声持続値を導出する持続値導出手段と、
前記持続値導出手段で導出された音声持続値を、それぞれの歌唱区間に対応する構成音の音高毎に集計し、その集計された音声持続値を集計持続値とし、前記集計持続値が、予め規定された規定値以上である最低音高から最高音高までの範囲を、前記ユーザが歌唱可能な音域である第一歌唱音域として判定する第一音域判定手段と
を備えることを特徴とする音域特定システム。
An audio signal acquisition means for acquiring an audio signal at the time of singing a song by a user;
Singing data generating means for generating singing data representing the transition of the pitch of the singing by frequency analysis of the sound signal acquired by the sound signal acquiring means;
Music data acquisition means for acquiring music data representing the pitch and value of each of the constituent sounds constituting the music;
Singing data generated by the singing data generating means, by comparing with the music data, a singing section specifying means for specifying a singing section that is a section corresponding to each of the constituent sounds;
For each singing section specified by the singing section specifying means, a duration value derivation means for deriving a voice duration value that becomes a larger value as the time during which the user has spoken with a voice volume equal to or higher than a preset setting value is longer; ,
The voice duration value derived by the duration value derivation means is tabulated for each pitch of the constituent sounds corresponding to each singing section, and the tabulated voice duration value is set as a tabulation duration value, and the tabulation duration value is: First range determining means for determining a range from a minimum pitch to a maximum pitch that is equal to or higher than a predetermined value defined in advance as a first singing range that can be sung by the user. Range identification system.
前記第一音域判定手段は、
前記集計持続値を正規化すると共に、
その正規化された前記集計持続値の最大値に対して予め規定された割合を前記規定値とすることを特徴とする請求項1に記載の音域特定システム。
The first range determination means includes
Normalizing the aggregate duration value,
The range specifying system according to claim 1, wherein a predetermined ratio with respect to the normalized maximum value of the aggregated continuous value is set as the specified value.
前記第一音域判定手段は、
前記歌唱区間に対応する前記構成音の音価が長いほど、前記音声持続値に大きな重みを付して集計することを特徴とする請求項1または請求項2に記載の音域特定システム。
The first range determination means includes
The sound range identification system according to claim 1 or 2, wherein the sound duration value is tabulated with a greater weight as the sound value of the constituent sound corresponding to the singing section is longer.
前記持続値導出手段は、
前記音声信号取得手段で取得した音声信号の信号レベルに基づいて、前記歌唱区間よりも短く規定された単位区間毎に、前記ユーザの声量を表す声量値を導出する声量値導出手段と、
前記声量値導出手段にて導出された声量値が前記設定値以上である単位区間の長さを積算した値を前記音声持続値として導出する積算値導出手段と
を備えることを特徴とする請求項1ないし請求項3のいずれかに記載の音域特定システム。
The sustained value deriving means includes
Based on the signal level of the audio signal acquired by the audio signal acquisition unit, a voice volume value deriving unit that derives a voice volume value representing the voice volume of the user for each unit section defined shorter than the singing section;
The integrated value deriving means for deriving, as the sound duration value, a value obtained by integrating the lengths of unit intervals in which the sound volume value derived by the sound volume value deriving means is greater than or equal to the set value. The sound range identification system according to any one of claims 1 to 3.
前記歌唱区間特定手段で特定された歌唱区間それぞれでのビブラートの安定度合いを表す歌唱安定度を導出する安定度導出手段と、
前記安定度導出手段で導出された歌唱安定度を、それぞれの歌唱区間に対応する構成音の音高毎に集計し、その集計された歌唱安定度が、予め規定された特定値以上である最低音高から最高音高までの範囲を、前記ユーザが歌唱可能な音域である第二歌唱音域として判定する第二音域判定手段と
を備えることを特徴とする請求項1ないし請求項4のいずれかに記載の音域特定システム。
Stability derivation means for deriving singing stability representing the degree of stability of vibrato in each singing section specified by the singing section specifying means;
The singing stability derived by the stability deriving means is aggregated for each pitch of the constituent sounds corresponding to each singing section, and the aggregated singing stability is a minimum that is equal to or higher than a predetermined value. 5. A second range determination unit that determines a range from a pitch to a maximum pitch as a second singing range that can be sung by the user. The range identification system described in.
前記第一音域判定手段で判定された第一歌唱音域と、前記第二音域判定手段で判定された第二歌唱音域とのうち、少なくとも一方を前記ユーザが歌唱可能な音域である歌唱音域として特定する歌唱音域特定手段
を備えることを特徴とする請求項5に記載の音域特定システム。
At least one of the first singing range determined by the first range determination unit and the second singing range determined by the second range determination unit is specified as a singing range that can be sung by the user. The tune range identification system according to claim 5, further comprising:
コンピュータに、
ユーザによる楽曲の歌唱時における音声信号を取得する音声信号取得手順と、
前記音声信号取得手順で取得した音声信号を周波数解析することで、歌唱の音高の推移を表す歌唱データを生成する歌唱データ生成手順と、
前記楽曲を構成する構成音それぞれの音高及び音価を表す楽曲データを取得する楽曲データ取得手順と、
前記歌唱データ生成手順で生成した歌唱データを、前記楽曲データと照合することで、前記構成音それぞれに対応する前記歌唱中での区間である歌唱区間を特定する歌唱区間特定手順と、
前記歌唱区間特定手順で特定された歌唱区間毎に、予め設定された設定値以上の声量で前記ユーザが発声していた時間が長いほど大きな値となる音声持続値を導出する持続値導出手順と、
前記持続値導出手順で導出された音声持続値を、それぞれの歌唱区間に対応する構成音の音高毎に集計し、その集計された音声持続値を集計持続値とし、前記集計持続値が、予め規定された規定値以上である最低音高から最高音高までの範囲を、前記ユーザが歌唱可能な音域である第一歌唱音域として判定する第一音域判定手順と
を実行させることを特徴とするプログラム。
On the computer,
An audio signal acquisition procedure for acquiring an audio signal when the user sings a song;
Singing data generation procedure for generating singing data representing the transition of the pitch of the singing by frequency analysis of the audio signal acquired in the audio signal acquisition procedure,
A music data acquisition procedure for acquiring music data representing the pitch and value of each of the constituent sounds constituting the music;
The singing section specifying procedure for specifying the singing section that is a section in the singing corresponding to each of the constituent sounds by comparing the singing data generated in the singing data generating procedure with the music data,
For each singing section specified in the singing section specifying procedure, a continuation value derivation procedure for deriving a voice continuation value that becomes a larger value as the time during which the user has spoken with a voice volume equal to or higher than a preset setting value is longer; ,
The voice duration value derived in the duration value derivation procedure is tabulated for each pitch of the constituent sounds corresponding to each singing section, and the tabulated voice duration value is set as a tabulation duration value, and the tabulation duration value is: And a first range determination procedure for determining a range from a minimum pitch to a maximum pitch that is equal to or higher than a predetermined value as a first singing range that can be sung by the user. Program to do.
JP2008254024A 2008-09-30 2008-09-30 Range identification system, program Active JP5125956B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008254024A JP5125956B2 (en) 2008-09-30 2008-09-30 Range identification system, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008254024A JP5125956B2 (en) 2008-09-30 2008-09-30 Range identification system, program

Publications (2)

Publication Number Publication Date
JP2010085654A JP2010085654A (en) 2010-04-15
JP5125956B2 true JP5125956B2 (en) 2013-01-23

Family

ID=42249677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008254024A Active JP5125956B2 (en) 2008-09-30 2008-09-30 Range identification system, program

Country Status (1)

Country Link
JP (1) JP5125956B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5606367B2 (en) * 2011-03-16 2014-10-15 株式会社エクシング Karaoke equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2797648B2 (en) * 1990-05-11 1998-09-17 ブラザー工業株式会社 Karaoke equipment
JP2979897B2 (en) * 1993-04-23 1999-11-15 ヤマハ株式会社 Karaoke equipment
JP2002108373A (en) * 2000-10-02 2002-04-10 Daiichikosho Co Ltd Method and device for analyzing singing compass of karaoke software and program recording medium
JP3599686B2 (en) * 2001-06-29 2004-12-08 株式会社第一興商 Karaoke device that detects the critical pitch of the vocal range when singing karaoke
JP4204941B2 (en) * 2003-09-30 2009-01-07 ヤマハ株式会社 Karaoke equipment
JP2007212932A (en) * 2006-02-13 2007-08-23 Eya Nobutoshi Speech analyzing device, speech analysis system, speech analysis method, and speech analyzing program

Also Published As

Publication number Publication date
JP2010085654A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
KR100949872B1 (en) Song practice support device, control method for a song practice support device and computer readable medium storing a program for causing a computer to excute a control method for controlling a song practice support device
KR101094687B1 (en) The Karaoke system which has a song studying function
JP6060867B2 (en) Information processing apparatus, data generation method, and program
JP6569712B2 (en) Electronic musical instrument, musical sound generation method and program for electronic musical instrument
KR20060112633A (en) System and method for grading singing data
JP5125958B2 (en) Range identification system, program
JP2022075147A (en) Acoustic processing system, acoustic processing method and program
JP5125957B2 (en) Range identification system, program
WO2017057531A1 (en) Acoustic processing device
JP5125956B2 (en) Range identification system, program
JP6098422B2 (en) Information processing apparatus and program
JP5782972B2 (en) Information processing system, program
JP6260565B2 (en) Speech synthesizer and program
JP5245973B2 (en) Scoring device, program
JP6252420B2 (en) Speech synthesis apparatus and speech synthesis system
JP6358018B2 (en) Karaoke device and program
JP4048249B2 (en) Karaoke equipment
JP6365483B2 (en) Karaoke device, karaoke system, and program
JP5034642B2 (en) Karaoke equipment
JP6011506B2 (en) Information processing apparatus, data generation method, and program
JP6252517B2 (en) Speech synthesizer and program
JP5805474B2 (en) Voice evaluation apparatus, voice evaluation method, and program
JP2004184506A (en) Karaoke machine and program
JP2011065043A (en) Tone pitch estimating device and program
JP5347641B2 (en) Karaoke device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5125956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3