JP5418518B2 - Music data correction device - Google Patents

Music data correction device Download PDF

Info

Publication number
JP5418518B2
JP5418518B2 JP2011025096A JP2011025096A JP5418518B2 JP 5418518 B2 JP5418518 B2 JP 5418518B2 JP 2011025096 A JP2011025096 A JP 2011025096A JP 2011025096 A JP2011025096 A JP 2011025096A JP 5418518 B2 JP5418518 B2 JP 5418518B2
Authority
JP
Japan
Prior art keywords
pitch
sound
musical
range
music data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011025096A
Other languages
Japanese (ja)
Other versions
JP2012163827A (en
Inventor
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011025096A priority Critical patent/JP5418518B2/en
Publication of JP2012163827A publication Critical patent/JP2012163827A/en
Application granted granted Critical
Publication of JP5418518B2 publication Critical patent/JP5418518B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽曲データを修正する楽曲データ修正装置に関する。   The present invention relates to a music data correction apparatus for correcting music data.

従来、予め規定された種類の楽器の音(以下、楽器音とする)を出力するカラオケ装置であって、MIDI規格によって楽曲を表した楽曲データに基づいて楽曲を演奏するカラオケ装置が知られている。一般的に、楽曲データは、当該楽曲にて歌唱されるべき旋律を表すガイドメロディの演奏を担当する楽器音であるガイメロ楽器音、副次的な旋律を表す伴奏メロディの演奏を担当する各楽器音であるハーモニー伴奏楽器音、及び該楽曲のリズムを刻む楽器音であるリズム楽器音のそれぞれについて、個々の楽音の音高、演奏開始タイミング、及び音の強さが規定された楽譜トラックを有している。   2. Description of the Related Art Conventionally, there has been known a karaoke apparatus that outputs a predetermined type of musical instrument sound (hereinafter referred to as an instrument sound) and plays a music piece based on music data that represents the music according to the MIDI standard. Yes. In general, the music data is a musical instrument sound that is a musical instrument sound responsible for playing a guide melody that represents a melody to be sung in the music, and each musical instrument that is responsible for playing an accompaniment melody that represents a secondary melody. Each of the harmony accompaniment instrument sound that is a sound and the rhythm instrument sound that is the instrument sound that engraves the rhythm of the music has a musical score track that specifies the pitch of each musical tone, the start timing of the performance, and the strength of the sound. doing.

そして、カラオケ装置では、当該カラオケ装置にて演奏された楽曲のガイドメロディにあわせて、当該カラオケ装置の利用者が歌唱することがなされる。
このようなカラオケ装置の中には、当該カラオケ装置にて演奏された楽曲を歌いやすくするために、ハーモニー伴奏楽器音やリズム楽器音の音量に比べて大きな音量となるように、ガイメロ楽器音の音量を制御するものがある(例えば、特許文献1参照)。
And in a karaoke apparatus, the user of the said karaoke apparatus sings according to the guide melody of the music performed with the said karaoke apparatus.
In such a karaoke device, in order to make it easier to sing a song performed by the karaoke device, the sound of the gimero instrument sound is set to be larger than the volume of the harmony accompaniment instrument sound or the rhythm instrument sound. Some control the volume (see, for example, Patent Document 1).

特開平10−222176号公報JP-A-10-222176

特許文献1に記載されたカラオケ装置のように、ガイメロ楽器音の音量を、他の楽器音の音量に比べて大きくすると、当該カラオケ装置の利用者にとって、ガイドメロディは聞きやすくなる。しかしながら、カラオケ装置の利用者自身が発声した声やリズム楽器音は、ガイドメロディを構成する楽音によって埋もれてしまい、聞き取りにくくなるという問題があった。   As in the karaoke device described in Patent Document 1, when the volume of the gimero instrument sound is set larger than the volume of other instrument sounds, the guide melody is easy to hear for the user of the karaoke device. However, there is a problem that the voice or rhythm instrument sound uttered by the user of the karaoke apparatus is buried by the musical sound constituting the guide melody and becomes difficult to hear.

つまり、特許文献1に記載されたカラオケ装置では、利用者自身が発声した声や、リズム楽器音が聞き取りにくくなり、カラオケ装置にて演奏された楽曲が歌いにくくなる可能性があるという問題があった。   In other words, the karaoke apparatus described in Patent Document 1 has a problem that it is difficult to hear the voice uttered by the user himself or the rhythm instrument sound, and the music played by the karaoke apparatus may be difficult to sing. It was.

そこで、本発明は、カラオケ装置にて演奏される楽曲が歌いやすくなるように楽曲データを修正する技術を提供することを目的とする。   Then, an object of this invention is to provide the technique which corrects music data so that the music played with a karaoke apparatus becomes easy to sing.

上記目的を達成するためになされた本発明の楽曲データ修正装置では、楽曲データ取得手段が、楽曲データを取得する。その楽曲データは、少なくとも1種類の楽器の音を出力可能なカラオケ装置にて演奏される楽曲を表し、該楽曲にて歌唱されるべき旋律を表すガイドメロディの演奏を担当する楽器の音であるガイメロ楽器音、該ガイドメロディに対する少なくとも一つの副次的な旋律の演奏を担当する各楽器の音であるハーモニー伴奏楽器音、及び該楽曲のリズムを刻む楽器の音であるリズム楽器音について、それぞれ、個々の楽音の音高、演奏開始タイミング、及び音の強さが規定された楽譜トラックを有している。   In the music data correction apparatus of the present invention made to achieve the above object, the music data acquisition means acquires music data. The music data represents the music played by a karaoke apparatus capable of outputting the sound of at least one kind of instrument, and is the sound of the instrument responsible for playing the guide melody representing the melody to be sung by the music. About the melody instrument sound, the harmony accompaniment instrument sound that is the sound of each instrument responsible for the performance of at least one secondary melody to the guide melody, and the rhythm instrument sound that is the sound of the instrument that engraves the rhythm of the music, respectively And a musical score track in which the pitch of each musical tone, the performance start timing, and the strength of the sound are defined.

そして、本発明の楽曲データ修正装置では、抑圧音域特定手段が、少なくとも楽曲データ取得手段で取得した楽曲データに基づいて、ガイメロ楽器音に対応する楽譜トラックにおける楽音の最低音高から最高音高までの音高範囲を含むように規定された音域最低値から音域最高値までの音域である抑圧音域を特定する。さらに、抑制楽音特定手段が、ハーモニー伴奏楽器音に対応する各楽譜トラックにおける楽音の中で、音高が、抑圧音域特定手段で特定された抑圧音域内である対象楽音を特定し、その特定した対象楽音を少なくとも含む楽音である抑制楽音を特定する。   In the music data correction device according to the present invention, the suppressed sound range specifying means is based on at least the music data acquired by the music data acquisition means, from the lowest pitch of the musical tone to the highest pitch in the score track corresponding to the musical instrument sound. The suppression range that is the range from the lowest range of the range specified to include the pitch range of the highest range of the range is specified. Further, the suppression musical sound specifying means specifies and specifies the target musical sound whose pitch is within the suppressed sound range specified by the suppression sound range specifying means among the musical sounds in each score track corresponding to the harmony accompaniment instrument sound. A suppressed musical tone that is a musical tone including at least the target musical tone is specified.

すると、データ修正手段が、抑制楽音特定手段で特定された抑制楽音の音の強さが低減するように、楽曲データを修正した修正楽曲データを生成する。
なお、本発明で言う音の強さとは、楽音における振幅の大きさを表すものであり、例えば、楽曲データがMIDI規格によって表されているのであれば、いわゆるベロシティやボリュームを含むものである。
Then, the data correction means generates corrected music data in which the music data has been corrected so that the intensity of the tone of the suppression musical tone specified by the suppression musical tone specifying means is reduced.
Note that the sound intensity referred to in the present invention represents the amplitude of a musical sound. For example, if music data is represented by the MIDI standard, it includes so-called velocity and volume.

また、本発明で言うハーモニー伴奏楽器音とは、副次的な旋律の演奏を担当する楽器(以下、ハーモニー伴奏楽器とする)の音であり、例えば、リズム楽器(例えば、ドラム)の音とは異なり、人の声と同じような周波数のスペクトル構造を有した音を出力する楽器の音である。このハーモニー伴奏楽器として、例えば、ギターなどの撥弦楽器や、バイオリンなどの擦弦楽器、ピアノなどの打弦楽器、クラリネットなどの管楽器などが該当する。さらに、副次的な旋律とは、ガイドメロディとは異なる旋律であっても良いし、ガイドメロディの和音に相当する旋律であっても良い。   In addition, the harmony accompaniment instrument sound referred to in the present invention is a sound of an instrument in charge of performance of a secondary melody (hereinafter referred to as a harmony accompaniment instrument), for example, a sound of a rhythm instrument (for example, a drum) Is different from that of a musical instrument that outputs a sound having a spectrum structure with a frequency similar to that of a human voice. Examples of the harmony accompaniment instruments include plucked instruments such as guitars, bowed instruments such as violins, percussion instruments such as pianos, and wind instruments such as clarinets. Further, the secondary melody may be a melody different from the guide melody or a melody corresponding to a chord of the guide melody.

以上説明したように、本発明の楽曲データ修正装置にて生成される修正楽曲データでは、音高がガイドメロディの音高範囲内である楽音がハーモニー伴奏楽器音であれば、当該ハーモニー伴奏楽器音における音の強さが、当該楽曲データを生成したときに規定された音の強さ(即ち、初期値)よりも低減される。一方、当該楽音がガイメロ楽器音及びリズム楽器音であれば、当該楽音の音の強さが、当該楽曲データを生成したときに規定された音の強さ(即ち、初期値)に維持される。   As described above, in the corrected music data generated by the music data correction device of the present invention, if the musical tone whose pitch is within the pitch range of the guide melody is a harmony accompaniment instrument sound, the harmony accompaniment instrument sound Is less than the sound intensity (ie, the initial value) defined when the music data is generated. On the other hand, if the musical sound is a gamero instrument sound and a rhythm musical instrument sound, the intensity of the musical sound is maintained at the intensity (ie, the initial value) defined when the music data is generated. .

したがって、このような修正楽曲データに基づいてカラオケ装置にて演奏された楽曲は、ガイドメロディの音高範囲内でのハーモニー伴奏楽器音の音量が小さくなるため、ガイドメロディが明瞭となる。この結果、当該カラオケ装置の利用者にとって、ガイドメロディが聞き取りやすくなる。   Therefore, the music played on the karaoke apparatus based on such modified music data has a clear guide melody because the volume of the harmony accompaniment instrument sound is reduced within the pitch range of the guide melody. As a result, it becomes easy for the user of the karaoke apparatus to hear the guide melody.

ところで、カラオケ装置にて演奏された楽曲を、該カラオケ装置の利用者が歌唱する場合、その利用者は、ガイドメロディの音高に歌声の音高を一致させるように歌唱することが多い。つまり、本発明のデータ修正装置にて生成された修正楽曲データに基づく楽曲をカラオケ装置にて演奏すれば、カラオケ装置の利用者が発する歌声の音高は、抑圧音域内となる可能性が高い。この抑圧音域では、ガイドメロディを構成する楽音以外の楽音の音量が小さいため、該カラオケ装置の利用者は、利用者自身が歌唱した声を聞き取りやすくなる。   By the way, when a user of the karaoke apparatus sings a song played by the karaoke apparatus, the user often sings so that the pitch of the singing voice matches the pitch of the guide melody. In other words, if a karaoke device plays music based on the corrected music data generated by the data correction device of the present invention, the pitch of the singing voice uttered by the user of the karaoke device is likely to be within the suppressed sound range. . In this suppressed sound range, since the volume of the musical sound other than the musical sound constituting the guide melody is small, the user of the karaoke apparatus can easily hear the voice sung by the user himself.

さらに、本発明の楽曲データ修正装置においては、リズム楽器音に対応する各楽譜トラックにおける楽音の音の強さは、楽曲データを生成したときの音の強さに維持される。このため、本発明の楽曲データ修正装置にて生成された修正楽曲データに基づく楽曲をカラオケ装置で演奏すれば、当該楽曲のリズムは、カラオケ装置の利用者にとってとりやすい状態に維持される。   Furthermore, in the music data correction apparatus of the present invention, the sound intensity of each musical score track corresponding to the rhythm instrument sound is maintained at the sound intensity when the music data is generated. For this reason, if the music based on the correction music data produced | generated with the music data correction apparatus of this invention is played with a karaoke apparatus, the rhythm of the said music will be maintained in the state which is easy for the user of a karaoke apparatus.

これらの結果、本発明の楽曲データ修正装置によれば、カラオケ装置にて演奏される楽曲を歌いやすくすることができる。換言すれば、本発明の楽曲データ修正装置によれば、カラオケ装置にて演奏される楽曲が歌いやすくなるように楽曲データを修正する技術を提供できる。   As a result, according to the music data correction apparatus of the present invention, it is possible to easily sing music played on the karaoke apparatus. In other words, according to the music data correction device of the present invention, it is possible to provide a technique for correcting music data so that the music played by the karaoke device can be easily sung.

なお、本発明における音高とは、音の高さを表す概念であり、例えば、音名に対応する特定の周波数や、その特定の周波数を含む周波数帯域を含むものである。
また、本発明における抑制楽音特定手段は、ハーモニー伴奏楽器音に対応する個々の楽譜トラックに規定された全楽音のうち、対象楽音の占める割合が予め規定された規定割合以上である楽譜トラックを特定し、その特定した楽譜トラックに規定された全ての楽音を、抑制楽音としても良い(請求項2)。
Note that the pitch in the present invention is a concept representing the pitch of a sound, and includes, for example, a specific frequency corresponding to a pitch name and a frequency band including the specific frequency.
Further, the suppression musical tone specifying means in the present invention specifies a musical score track in which the ratio of the target musical sound is equal to or higher than a predetermined predetermined ratio among all the musical sounds specified for each musical score track corresponding to the harmony accompaniment instrument sound. Then, all the musical sounds defined in the specified musical score track may be suppressed musical sounds (claim 2).

つまり、本発明において、音の強さの抑制は、楽譜トラック単位で実行しても良い。
このような楽曲データ修正装置によれば、楽譜トラック単位で音の強さを抑制することができ、簡易な方法で音の強さの抑制、ひいては、修正楽曲データの生成を実現できる。
In other words, in the present invention, the suppression of the sound intensity may be executed for each musical score track.
According to such a music data correction device, it is possible to suppress the sound intensity for each musical score track, and it is possible to suppress the sound intensity by a simple method and thus to generate corrected music data.

さらに、本発明における抑制楽音特定手段は、対象楽音の各々を抑制楽音としても良い(請求項3)。
このような楽曲データ修正装置にて生成された修正楽曲データであれば、当該修正楽曲データを演奏した際に、音の強さが低減される楽音の数を必要最小限とすることができる。このため、修正楽曲データに基づいてカラオケ装置にて演奏された楽曲を聴いた人が、当該楽曲の音が弱く、当該楽曲が貧弱であると感じることを抑制できる。
Furthermore, the suppression musical tone specifying means in the present invention may use each of the target musical sounds as a suppression musical tone.
With the corrected music data generated by such a music data correction device, the number of musical sounds whose sound intensity is reduced when the corrected music data is played can be minimized. For this reason, it can suppress that the person who listened to the music performed with the karaoke apparatus based on correction music data feels that the sound of the said music is weak and the said music is poor.

そして、本発明におけるデータ修正手段は、音の強さが低減するように予め規定された規定係数を、抑制楽音それぞれの音の強さに乗じることで、修正楽曲データを生成しても良い(請求項4)。   And the data correction means in this invention may produce | generate correction music data by multiplying the sound intensity | strength of each suppression musical sound by the prescription | regulation coefficient previously prescribed | regulated so that the sound intensity may reduce ( Claim 4).

このようなデータ修正手段であれば、抑制楽音それぞれの音の強さに規定係数を乗じることで、楽曲データを修正でき、修正楽曲データの生成を簡易な方法で実現できる。
さらに、本発明におけるデータ修正手段は、音の強さが低減するように予め規定された規定値を、抑制楽音それぞれの音の強さから減算することで、修正楽曲データを生成しても良い(請求項5)。
With such data correction means, the music data can be corrected by multiplying the sound intensity of each of the suppressed musical sounds by a specified coefficient, and the generation of the corrected music data can be realized by a simple method.
Furthermore, the data correction means in the present invention may generate the corrected music data by subtracting a specified value that is specified in advance so as to reduce the sound intensity from the sound intensity of each of the suppression musical sounds. (Claim 5).

このようなデータ修正手段であれば、抑制楽音それぞれの音の強さから規定値を減算することで、楽曲データを修正でき、修正楽曲データの生成を簡易な方法で実現できる。
ただし、請求項5における音の強さの低減方法は、規定値が正の値として規定されている場合の方法である。仮に、規定値が負の値として規定されている場合には、抑制楽音それぞれの音の強さに規定値を加算することで、音の強さの低減を実現しても良い。
With such data correction means, the music data can be corrected by subtracting the prescribed value from the sound intensity of each of the suppression musical sounds, and the generation of the corrected music data can be realized by a simple method.
However, the sound intensity reducing method in claim 5 is a method in the case where the specified value is defined as a positive value. If the specified value is specified as a negative value, the sound intensity may be reduced by adding the specified value to the intensity of each of the suppressed musical sounds.

なお、本発明のデータ修正装置では、歌声データ取得手段が、楽曲データに基づく演奏に対して歌唱された歌声の時間軸に沿った波形を表す歌声波形データを取得し、その取得した歌声波形データに基づいて、歌唱音高特定手段が、歌声の音高を表す歌声音高を時間軸に沿って順次特定しても良い。この場合、本発明の抑圧音域特定手段では、音高差分導出手段が、ガイメロ楽器に対応する楽譜トラックに規定された楽音の音高と、歌唱音高特定手段で特定された歌声音高との差分である音高差分を導出し、その導出した音高差分に基づいて、抑圧音域決定手段が、音域最低値、及び音域最高値を規定しても良い(請求項6)。   In the data correction device of the present invention, the singing voice data acquisition means acquires singing voice waveform data representing the waveform along the time axis of the singing voice sung for the performance based on the music data, and the acquired singing voice waveform data Based on the above, the singing pitch specifying means may sequentially specify singing pitches representing the pitch of the singing voice along the time axis. In this case, in the suppressed pitch range specifying means of the present invention, the pitch difference deriving means has the pitch between the musical tone specified in the score track corresponding to the gimero musical instrument and the singing voice pitch specified by the singing pitch specified means. A pitch difference which is a difference may be derived, and the suppression range determination unit may define the minimum range and the maximum range based on the derived pitch difference (claim 6).

このような本発明の楽曲データ修正装置によれば、音域最低値及び音域最高値を、音高差分(即ち、歌声音高と楽音の音高とのズレ)に応じて規定することができる。
ところで、本発明の楽曲データ修正装置においては、音域最低値として、最低音高よりも低い音高が、音域最高値として、最高音高よりも高い音高が、予め規定されていても良い。
According to such a music data correction apparatus of the present invention, the lowest sound range value and the highest sound range value can be defined according to the pitch difference (that is, the difference between the singing voice pitch and the pitch of the musical tone).
By the way, in the music data correction device of the present invention, a pitch lower than the lowest pitch may be defined in advance as the lowest range, and a pitch higher than the highest pitch as the highest range.

この場合、本発明の抑圧音域決定手段は、該音域最低値が、音高差分の大きさに比例してより低い音高となるように、新たな音域最低値を規定し、音域最高値が、音高差分の大きさに比例してより高い音高となるように、新たな音域最高値を規定しても良い(請求項7)。   In this case, the suppression range determination means of the present invention defines a new minimum range value so that the minimum range value is lower in proportion to the magnitude of the pitch difference, and the maximum range value is A new maximum value of the pitch range may be defined so that the pitch becomes higher in proportion to the magnitude of the pitch difference (claim 7).

このような抑圧音域決定手段によれば、音高差分の大きさに比例して抑圧音域を拡大することができる。このため、利用者自身の声域に、抑圧音域が含まれる可能性を向上させることができる。   According to such suppression sound range determination means, the suppression sound range can be expanded in proportion to the magnitude of the pitch difference. For this reason, the possibility that the suppressed sound range is included in the user's own voice range can be improved.

また、音域最低値として、最低音高よりも低い音高が、音域最高値として、最高音高よりも高い音高が、予め規定されている場合には、本発明の抑圧音域決定手段は、音域最低値から音高差分シフトした音高を、新たな音域最低値として規定し、音域最高値から音高差分シフトした音高を、新たな音域最高値として規定しても良い。   In addition, when the pitch lower than the lowest pitch is defined as the lowest range, and the pitch higher than the highest pitch is defined as the highest range, the suppression range determination means of the present invention, The pitch shifted from the lowest pitch value by the pitch difference may be defined as a new lowest pitch value, and the pitch shifted from the highest pitch value by the pitch difference may be defined as the new highest pitch value.

このような抑圧音域決定手段によれば、音高差分に応じて抑圧音域をシフトすることができる。このため、利用者自身の声域に抑圧音域が含まれる可能性を向上させることができる。   According to such suppressed sound range determination means, the suppressed sound range can be shifted according to the pitch difference. For this reason, the possibility that the suppressed sound range is included in the user's own voice range can be improved.

これらの楽曲データ修正装置にて生成された修正楽曲データに基づく演奏に応じて歌唱した利用者は、利用者自身が歌唱した声をより聞き取りやすくなり、楽曲データに対応する楽曲が歌いやすくなる。   A user who sang according to a performance based on the corrected music data generated by these music data correction devices can more easily hear the voice sung by the user himself, and the music corresponding to the music data can be easily sung.

本発明が適用されたデータ修正装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the data correction apparatus with which this invention was applied. 楽譜トラックの構造を模式的に示す図である。It is a figure which shows typically the structure of a score track. 第一実施形態におけるMIDIアレンジ処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the MIDI arrangement process in 1st embodiment. 図4(A)は、MIDIアレンジ処理においてガイメロ音域を特定する手法の概要を示す図であり、図4(B)は、MIDIアレンジ処理において抑制楽音を特定する手法の概要を示す図である。FIG. 4A is a diagram illustrating an outline of a technique for specifying a gimmel sound range in the MIDI arrangement process, and FIG. 4B is a diagram illustrating an outline of a technique for specifying a suppression musical sound in the MIDI arrangement process. MIDIアレンジ処理において楽音の音の強さを抑制する手法の概要を示す図である。It is a figure which shows the outline | summary of the method of suppressing the sound intensity of a musical sound in a MIDI arrangement process. 第二実施形態におけるMIDIアレンジ処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the MIDI arrangement process in 2nd embodiment. 第二実施形態における抑圧音域の一例について概要を示す図である。It is a figure which shows an outline | summary about an example of the suppression sound area in 2nd embodiment. 第二実施形態における抑圧音域の一例について概要を示す図である。It is a figure which shows an outline | summary about an example of the suppression sound area in 2nd embodiment.

以下に本発明の実施形態を図面と共に説明する。
[第一実施形態]
本発明が適用された楽曲データ修正装置は、カラオケ装置にて演奏される楽曲を表す楽曲データを修正する装置である。以下、楽曲データ修正装置にて修正した楽曲データを修正楽曲データと称す。
Embodiments of the present invention will be described below with reference to the drawings.
[First embodiment]
The music data correction apparatus to which the present invention is applied is an apparatus that corrects music data representing music played by a karaoke apparatus. Hereinafter, the music data corrected by the music data correction device is referred to as corrected music data.

なお、実施形態における楽曲データ修正装置は、図1に示すカラオケ装置10の一つの機能として実現されている。このカラオケ装置10は、楽曲データや修正楽曲データに基づいて、それらデータに対応する楽曲を演奏する装置である。   In addition, the music data correction apparatus in the embodiment is realized as one function of the karaoke apparatus 10 shown in FIG. The karaoke device 10 is a device that plays music corresponding to the data based on the music data and the corrected music data.

この楽曲データや修正楽曲データによって表わされる楽曲とは、作曲者が作曲した楽曲を、カラオケの用途のために編曲した楽曲であり、通常、当該楽曲にて歌唱されるべき旋律を表すガイドメロディと、そのガイドメロディに対する副次的な旋律を表す少なくとも一つの伴奏メロディと、当該楽曲のリズムを表すリズム旋律とを有する。ここで言う伴奏メロディには、ガイドメロディとは異なる旋律に加えて、ガイドメロディの和音に相当する旋律を含む。
〈カラオケ装置について〉
図1に示すように、カラオケ装置10は、通信部11と、入力受付部13と、表示部14と、音声入力部15と、音声出力部16と、音源モジュール17と、記憶部18と、制御部20とを備えている。
The music represented by the music data or the corrected music data is a music that is composed by a composer for the purpose of karaoke, and is usually a guide melody that represents a melody to be sung in the music. And at least one accompaniment melody representing a secondary melody for the guide melody and a rhythm melody representing the rhythm of the music. The accompaniment melody mentioned here includes a melody corresponding to a chord of the guide melody in addition to a melody different from the guide melody.
<About karaoke equipment>
As shown in FIG. 1, the karaoke apparatus 10 includes a communication unit 11, an input receiving unit 13, a display unit 14, a voice input unit 15, a voice output unit 16, a sound source module 17, a storage unit 18, And a control unit 20.

このうち、通信部11は、カラオケ装置10をネットワーク(例えば、専用回線やWAN)に接続し、その接続されたネットワークを介して外部と通信を行うものである。
入力受付部13は、外部からの操作に従って情報や指令の入力を受け付ける入力機器(例えば、リモートコントローラ)である。表示部14は、画像を表示する表示装置(例えば、液晶ディスプレイやCRT等)である。また、音声入力部15は、音声を電気信号に変換して制御部20に入力する装置(いわゆるマイクロホン)である。音声出力部16は、制御部20からの電気信号を音声に変換して出力する装置(いわゆるスピーカ)である。
Among these, the communication part 11 connects the karaoke apparatus 10 to a network (for example, a private line or WAN), and communicates with the exterior via the connected network.
The input receiving unit 13 is an input device (for example, a remote controller) that receives input of information and commands in accordance with external operations. The display unit 14 is a display device (for example, a liquid crystal display or a CRT) that displays an image. The voice input unit 15 is a device (so-called microphone) that converts voice into an electrical signal and inputs the electrical signal to the control unit 20. The audio output unit 16 is a device (so-called speaker) that converts an electrical signal from the control unit 20 into sound and outputs the sound.

さらに、音源モジュール17は、楽曲データに基づいて、予め規定された種類の楽器の音(以下、楽器音とする)を出力する装置である。本実施形態においては、音源モジュール17は、周知のMIDI(Musical Instrument Digital Interface)音源によって構成されている。そして、音源モジュール17にて出力される楽器音は、鍵盤楽器(例えば、ピアノやパイプオルガンなど)の楽器音、弦楽器(例えば、バイオリンやビオラ、ギター、ベース、琴など)の楽器音、打楽器(例えば、ドラムやシンバル、ティンパニー、木琴、ビブラフォンなど)の楽器音、及び管楽器(例えば、クラリネットやトランペット、フルート、尺八など)の楽器音などである。   Furthermore, the sound module 17 is a device that outputs a predetermined type of instrument sound (hereinafter referred to as instrument sound) based on music data. In the present embodiment, the sound source module 17 is constituted by a well-known MIDI (Musical Instrument Digital Interface) sound source. The instrument sound output from the tone generator module 17 is an instrument sound of a keyboard instrument (for example, a piano or a pipe organ), an instrument sound of a stringed instrument (for example, a violin, a viola, a guitar, a bass, a koto, etc.), or a percussion instrument ( For example, instrument sounds of drums, cymbals, timpani, xylophone, vibraphone, etc., and instrument sounds of wind instruments (eg, clarinet, trumpet, flute, shakuhachi, etc.).

次に、楽曲データは、楽曲を区別するデータである識別データと、当該楽曲の歌詞を表す歌詞データと、当該楽曲にて用いられる楽器各々についての楽譜を表す楽譜トラックとを少なくとも有し、周知のMIDI規格によって表されている。   Next, the music data includes at least identification data that is data for distinguishing music, lyrics data that represents the lyrics of the music, and a music score track that represents the music score for each instrument used in the music. Is represented by the MIDI standard.

楽譜トラックとしては、ガイドメロディと、伴奏メロディと、リズム旋律とのそれぞれに対応するデータが予め生成されている。つまり、楽譜トラックには、ガイドメロディの演奏を担当する楽器(以下、ガイメロ楽器とする)に対応する楽譜トラック、伴奏メロディの演奏を担当する楽器(以下、伴奏メロディ楽器とする)に対応する楽譜トラック、リズム旋律の演奏を担当する楽器(以下、リズム楽器とする)に対応する楽譜トラックが存在する。   As the score track, data corresponding to each of the guide melody, the accompaniment melody, and the rhythm melody is generated in advance. In other words, the musical score track includes a musical score track corresponding to an instrument in charge of playing a guide melody (hereinafter referred to as a gimero musical instrument), and a musical score corresponding to an instrument in charge of performing an accompaniment melody (hereinafter referred to as an accompaniment melody musical instrument). There are musical score tracks corresponding to musical instruments (hereinafter referred to as rhythm musical instruments) in charge of playing tracks and rhythm melodies.

なお、実施形態においては、ガイメロ楽器として、例えば、ビブラフォンが規定され、リズム楽器として、例えば、ドラムや、シンバルなどが規定されている。また、実施形態における伴奏メロディ楽器には、当該伴奏メロディ楽器の楽器音における周波数のスペクトル構造が人の声と同様のスペクトル構造(即ち、倍音構造)となる楽器(以下、ハーモニー伴奏楽器とする)が含まれる。このハーモニー伴奏楽器には、例えば、バイオリンやビオラ、ギター、ベース(いわゆるベースギター)などが含まれる。   In the embodiment, for example, a vibraphone is defined as the gimero musical instrument, and for example, a drum or a cymbal is defined as the rhythm musical instrument. In the accompaniment melody musical instrument in the embodiment, a musical instrument (hereinafter referred to as a harmony accompaniment musical instrument) in which the spectrum structure of the frequency of the musical instrument sound of the accompaniment melody musical instrument has a spectral structure similar to that of a human voice (ie, a harmonic structure). Is included. The harmony accompaniment instrument includes, for example, a violin, a viola, a guitar, and a bass (so-called bass guitar).

各楽譜トラックには、楽器の種類に応じてインデックス番号が割り振られており、このインデックス番号によって、各楽譜トラックに対応する楽器の種類を特定可能となる。
ところで、各楽譜トラックに規定される内容には、個々の楽音(即ち、楽器音)の音符長、個々の楽音の音高(いわゆるノートナンバー)、個々の楽音の強さ(いわゆるアタック、ベロシティ、ディケイなど)がある。
Each musical score track is assigned an index number according to the type of musical instrument, and the type of musical instrument corresponding to each musical score track can be specified by this index number.
By the way, the contents defined for each musical score track include the note lengths of individual musical sounds (ie, instrument sounds), the pitches of individual musical sounds (so-called note numbers), and the strengths of individual musical sounds (so-called attack, velocity, Decay).

ただし、楽譜トラックでの音符長は、当該楽器音の出力を開始する、当該楽曲の演奏開始からの時刻を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了する、当該楽曲の演奏開始からの時刻を表す終了タイミング(いわゆるノートオフタイミング)とによって規定されている。   However, the note length on the score track is the start of the musical instrument sound, the performance start timing indicating the time from the start of the performance of the music (so-called note-on timing), and the output of the performance sound is terminated. It is defined by the end timing (so-called note-off timing) representing the time from the start of the music performance.

つまり、各楽譜トラックは、図2に示すように、時間の進行に沿った楽音それぞれについて、ノートナンバー、ノートオンタイミング、及びノートオフタイミングが規定されることによって、楽器にて演奏すべき楽譜を表している。   In other words, as shown in FIG. 2, each musical score track has a note number, a note-on timing, and a note-off timing for each musical sound along with the progress of time. Represents.

また、記憶部18は、記憶内容を読み書き可能に構成された不揮発性の記憶装置(例えば、ハードディスク装置)である。この記憶部18には、処理プログラムや、通信部11を介して取得された楽曲データが少なくとも格納される。さらに、記憶部18には、カラオケ装置10の利用者が過去に歌唱したときの歌声を記録した歌声データが、当該利用者を識別する利用者識別番号と対応付けて格納されても良い。   The storage unit 18 is a non-volatile storage device (for example, a hard disk device) configured to be able to read and write stored contents. The storage unit 18 stores at least a processing program and music data acquired via the communication unit 11. Furthermore, the singing voice data which recorded the singing voice when the user of the karaoke apparatus 10 sung in the past may be stored in the storage unit 18 in association with the user identification number for identifying the user.

制御部20は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納するROM21と、処理プログラムやデータを一時的に格納するRAM22と、ROM21やRAM22に記憶された処理プログラムに従って各処理(各種演算)を実行するCPU23とを少なくとも有した周知のコンピュータを中心に構成されている。   The control unit 20 includes a ROM 21 that stores processing programs and data that need to retain stored contents even when the power is turned off, a RAM 22 that temporarily stores processing programs and data, and processes stored in the ROM 21 and RAM 22. A known computer having at least a CPU 23 that executes each process (various operations) according to a program is mainly configured.

なお、本実施形態における処理プログラムとして、入力受付部13を介して指定された楽曲(以下、対象楽曲)に対応する楽曲データを、カラオケ装置10の利用者が歌唱しやすい楽曲に対応する楽曲データとなるように修正する(即ち、修正楽曲データを生成する)と共に、その修正楽曲データに基づいて当該楽曲を演奏するMIDIアレンジ処理の処理手順を表した処理プログラムが予め用意されている。
〈MIDIアレンジ処理について〉
次に、制御部20が実行するMIDIアレンジ処理の処理手順について説明する。
Note that, as the processing program in the present embodiment, the music data corresponding to the music specified by the input receiving unit 13 (hereinafter referred to as the target music) is the music data corresponding to the music that the user of the karaoke apparatus 10 can easily sing. A processing program is prepared in advance that represents the processing procedure of the MIDI arrangement processing for performing the music based on the corrected music data.
<About MIDI arrangement processing>
Next, the procedure of the MIDI arrangement process executed by the control unit 20 will be described.

ここで、図3は、第一実施形態におけるMIDIアレンジ処理の処理手順を示したフローチャートである。
MIDIアレンジ処理は、入力受付部13を介して起動指令が入力されると、実行が開始されるものである。
Here, FIG. 3 is a flowchart showing a processing procedure of the MIDI arrangement processing in the first embodiment.
The MIDI arrangement process starts when an activation command is input via the input receiving unit 13.

そのMIDIアレンジ処理は、起動されると、図3に示すように、まず、対象楽曲に対応する楽曲データを取得する(S110)。続いて、S110にて取得した楽曲データ(以下、取得楽曲データと称す)のガイドメロディを形成する楽音の音高が含まれる音高の範囲(以下、ガイメロ音域とする)を特定する(S120)。   When the MIDI arrangement process is started, as shown in FIG. 3, first, music data corresponding to the target music is acquired (S110). Subsequently, a range of pitches (hereinafter referred to as a gimero tone range) including the pitches of musical sounds forming the guide melody of the song data acquired in S110 (hereinafter referred to as acquired song data) is specified (S120). .

具体的には、ガイドメロディに対応する楽譜トラックから、当該楽譜トラックに規定されている全ての楽音の音高について度数分布(即ち、ヒストグラム)を求める。図4(A)に示すように、その求めた度数分布において、度数が予め規定された音高閾値thf以上となる音高(ノートナンバー)の中で、最も低い音高を最低音高mf0minとして特定する。さらに、度数分布において、度数が音高閾値thf以上となる音高(ノートナンバー)の中で、最も高い音高を最高音高mf0maxとして特定する。それら特定された最低音高mf0minから最高音高mf0maxまでの音高範囲(ノートナンバーの範囲)を、ガイメロ音域として特定する。   Specifically, a frequency distribution (that is, a histogram) is obtained from the musical score track corresponding to the guide melody with respect to the pitches of all musical sounds defined in the musical score track. As shown in FIG. 4A, in the obtained frequency distribution, the lowest pitch among the pitches (note numbers) at which the frequency is equal to or higher than the predetermined pitch threshold thf is set as the lowest pitch mf0min. Identify. Further, in the frequency distribution, the highest pitch among the pitches (note numbers) at which the frequency is equal to or higher than the pitch threshold thf is specified as the highest pitch mf0max. The pitch range (note number range) from the specified minimum pitch mf0min to the maximum pitch mf0max is specified as the gimero range.

続いて、S120で特定したガイメロ音域を包括する音高の範囲を表す抑圧帯域を特定する(S130)。
具体的には、音高が最低音高mf0minよりも予め規定された音高α分低い音高を、音域最低値n0minとして、音高が最高音高mf0maxよりも予め規定された音高α分高い音高を、音域最高値n0maxとして特定する。そして、それらの特定した音域最低値n0minから音域最高値n0maxまでの音高範囲(ノートナンバーの範囲)を、抑圧帯域として特定する。
Subsequently, a suppression band that represents a pitch range that encompasses the gamelo sound range specified in S120 is specified (S130).
Specifically, a pitch that is lower than the minimum pitch mf0min by a predetermined pitch α is defined as a minimum range n0min, and the pitch is a predetermined pitch α that is higher than the maximum pitch mf0max. A high pitch is specified as the highest range n0max. Then, the pitch range (note number range) from the specified lowest range n0min to the highest range n0max is specified as the suppression band.

MIDIアレンジ処理では、続いて、本MIDIアレンジ処理にて修正を加える対象となる楽音(以下、抑制楽音とする)を特定する(S140)。
実施形態においては、ハーモニー伴奏楽器に対応する全ての楽譜トラックの中で、予め規定した規定条件を満たす楽譜トラックを特定し、その特定された楽譜トラックに規定されている全ての楽音を抑制楽音とする。本実施形態における規定条件とは、一つの楽譜トラックに規定されている全ての楽音のうち、音高が抑圧帯域内に含まれる楽音(以下、対象楽音とする)の割合が予め規定された規定割合以上となることである。
In the MIDI arrangement process, subsequently, a musical sound to be corrected in the MIDI arrangement process (hereinafter referred to as a “suppressed musical sound”) is specified (S140).
In the embodiment, among all the music score tracks corresponding to the harmony accompaniment instrument, a music score track satisfying a pre-defined stipulated condition is specified, and all the music stipulated in the specified music score track are determined as suppressed music tones. To do. The prescribed condition in the present embodiment is a prescribed in which the proportion of the musical tones whose pitch is included in the suppression band (hereinafter referred to as the target musical tone) among all the musical tones prescribed in one musical score track is prescribed. It is to become more than a ratio.

つまり、本実施形態におけるS140では、具体的に、取得楽曲データを構成する楽譜トラックの中で、ハーモニー伴奏楽器音に対応する楽譜トラックの各々を特定する。そして、図4(B)に示すように、その特定したハーモニー伴奏楽器に対応する楽譜トラックのそれぞれについて、当該楽譜トラックに規定されている全ての楽音の音高についての度数分布(即ち、ヒストグラム)を求める。その求めた度数分布において、当該楽譜トラックに規定された全楽音の度数の総計に対して全対象楽音の度数の総計が占める割合(即ち、図4(B)においてハッチングを施した部分の面積)が、規定割合以上であれば、当該ハーモニー楽器に対応する楽譜トラックに規定された全ての楽音を抑制楽音とする。   That is, in S140 in the present embodiment, specifically, each of the score tracks corresponding to the harmony accompaniment instrument sound is specified among the score tracks constituting the acquired music data. Then, as shown in FIG. 4B, for each of the score tracks corresponding to the specified harmony accompaniment instrument, the frequency distribution (ie, histogram) for the pitches of all musical sounds defined in the score track. Ask for. In the obtained frequency distribution, the ratio of the total frequency of all target musical sounds to the total frequency of all musical sounds specified for the score track (that is, the area of the hatched portion in FIG. 4B) However, if the ratio is equal to or greater than the specified ratio, all musical sounds defined in the musical score track corresponding to the harmony musical instrument are set as suppressed musical sounds.

ただし、実施形態においては、ベースギターに対応する楽譜トラックを、ハーモニー楽器に対応する楽譜トラックとして取り扱わないこととする。つまり、実施形態においては、抑制楽音として、ベースギターに対応する楽譜トラックに規定された楽音が特定されることを除外する。   However, in the embodiment, a score track corresponding to a bass guitar is not handled as a score track corresponding to a harmony instrument. In other words, in the embodiment, it is excluded that the musical tone defined in the musical score track corresponding to the bass guitar is specified as the suppressed musical tone.

MIDIアレンジ処理では、続いて、S140で特定された全ての抑制楽音の音の強さ(ベロシティ)が低減するように取得楽曲データを修正する(S150)。このS150にて、全ての抑制楽音の音の強さが低減するように修正した楽曲データが、修正楽曲データとなる。   In the MIDI arrangement processing, subsequently, the acquired music data is modified so that the sound strengths (velocities) of all the suppressed musical sounds specified in S140 are reduced (S150). In this S150, the music data that has been corrected so that the intensity of all the suppressed musical sounds is reduced becomes the corrected music data.

本実施形態のS150において、音の強さを低減させる方法は、抑制楽音の音の強さを表すベロシティに、予め規定された規定係数A(ただし、0<A<1)を乗じることでも良いし、抑制楽音の音の強さを表すベロシティから、予め規定された規定値B(ただし、B≧1)を減算することでも良い。   In S150 of the present embodiment, the method for reducing the sound intensity may be to multiply the velocity representing the sound intensity of the suppressed musical tone by a predetermined coefficient A (where 0 <A <1). Then, a predetermined value B (B ≧ 1) defined in advance may be subtracted from the velocity representing the intensity of the suppressed musical sound.

なお、本実施形態では、ハーモニー伴奏楽器に対応する楽譜トラックに規定されている全ての楽音のうちの対象楽音が占める割合が規定割合以上である楽譜トラックに規定されている全ての楽音を抑制楽音としていたが、本発明における抑制楽音は、これに限るものではない。例えば、ハーモニー伴奏楽器に対応する楽譜トラックに規定されている全ての楽音のうちの対象楽音を抑制楽音としても良い。   In the present embodiment, all musical sounds defined in the musical score track, in which the ratio of the target musical sound among all the musical sounds defined in the musical score track corresponding to the harmony accompaniment instrument is equal to or greater than the prescribed ratio, are suppressed. However, the suppression tone in the present invention is not limited to this. For example, the target musical tone among all the musical tones specified in the musical score track corresponding to the harmony accompaniment instrument may be used as the suppressed musical tone.

この場合、図5(A)に示すように、抑制楽音(即ち、対象楽音)の音高の強さに乗じる規定係数を「A」とし、音高が抑圧帯域外である楽音(即ち、抑制楽音以外の楽音)の音高の強さに乗じる規定係数を「1」とすれば良い。また、図5(B)に示すように、抑制楽音(即ち、対象楽音)の音高の強さから減算する規定値の値を「B」とし、音高が抑圧帯域外である楽音(即ち、抑制楽音以外の楽音)の音高の強さから減算する規定値を「0」とすれば良い。なお、規定値Bは負の値(B<0)でも良い。この場合、抑制楽音の音の強さに規定値Bを加算することで、音の強さの低減を実現すれば良い。   In this case, as shown in FIG. 5 (A), the specified coefficient to be multiplied by the intensity of the pitch of the suppression musical tone (ie, the target musical tone) is “A”, and the musical tone whose pitch is outside the suppression band (ie, the suppression musical tone). The specified coefficient to be multiplied by the intensity of the pitch of musical sounds other than musical sounds) may be set to “1”. Further, as shown in FIG. 5B, the value of the specified value to be subtracted from the intensity of the tone of the suppression musical tone (ie, the target musical tone) is “B”, and the musical tone whose pitch is outside the suppression band (ie, The specified value to be subtracted from the intensity of the pitch of the musical tone other than the suppression musical tone may be set to “0”. The specified value B may be a negative value (B <0). In this case, the sound intensity can be reduced by adding the specified value B to the sound intensity of the suppressed musical sound.

続いて、S150にて生成された修正楽曲データに基づいて、修正楽曲データに対応する楽曲を演奏して、演奏音を音声出力部16から放音すると共に、歌詞データに基づく歌詞を表示部14に表示する(S160)。   Subsequently, based on the corrected music data generated in S150, the music corresponding to the corrected music data is played, the performance sound is emitted from the voice output unit 16, and the lyrics based on the lyrics data are displayed on the display unit 14. (S160).

その後、本MIDIアレンジ処理を終了し、次の起動指令が入力されるまで待機する。
以上説明したように、カラオケ装置10では、取得楽曲データを構成する楽譜トラックの中で、ハーモニー伴奏楽器音に対応する楽譜トラックを特定し、その特定した楽譜トラックのそれぞれが規定条件を満たすか否かを判定する。この判定の結果、規定条件を満たす楽譜トラックについては、当該楽譜トラックに規定された楽音の音の強さを、当該楽曲データを生成したときに規定された音の強さ(即ち、初期値)よりも低減するように楽曲データを修正する。ただし、規定条件とは、楽譜トラックに規定されている全ての楽音の音高についての度数分布において、当該楽譜トラックに規定された全楽音の度数の総計に対して全対象楽音の度数の総計が占める割合が、規定割合以上となることである。
Thereafter, the present MIDI arrangement process is terminated, and the process waits until the next start command is input.
As described above, in the karaoke apparatus 10, a score track corresponding to the harmony accompaniment instrument sound is identified from the score tracks constituting the acquired music data, and each of the identified score tracks satisfies the specified condition. Determine whether. As a result of this determination, for a music score track that satisfies the specified conditions, the sound intensity specified for the music score track is set to the sound intensity specified when the music data is generated (ie, the initial value). The music data is corrected so as to reduce it. However, the specified condition is the frequency distribution of all musical tones specified in the musical score track, and the total frequency of all target musical sounds is the sum of the frequencies of all musical sounds specified in the musical score track. The occupying ratio is more than the specified ratio.

なお、カラオケ装置10では、ガイメロ楽器やリズム楽器に対応する楽譜トラックについては、当該楽曲データを生成したときに規定された状態に維持される。
[第一実施形態の効果]
したがって、このように生成された修正楽曲データに基づいてカラオケ装置10にて演奏された対象楽曲は、ガイメロ音域内でのハーモニー伴奏楽器音の音量が小さくなるため、ガイドメロディを形成する楽音が明瞭となる。この結果、カラオケ装置10の利用者にとって、ガイドメロディが聞き取りやすくなる。
In the karaoke apparatus 10, the musical score track corresponding to the gimero musical instrument or the rhythm musical instrument is maintained in the state defined when the music data is generated.
[Effect of the first embodiment]
Therefore, the target musical piece played by the karaoke apparatus 10 based on the corrected musical piece data generated in this way has a low volume of the harmony accompaniment instrument sound in the gimero range, so that the musical tone forming the guide melody is clear. It becomes. As a result, it becomes easier for the user of the karaoke apparatus 10 to hear the guide melody.

ところで、カラオケ装置10にて演奏された楽曲を、カラオケ装置10の利用者が歌唱する場合、その利用者は、ガイドメロディの音高に歌声の音高を一致させるように歌唱することが多い。つまり、カラオケ装置10にて、修正楽曲データに基づく対象楽曲を演奏すれば、カラオケ装置10の利用者の歌声の音高は、抑圧音域内となる可能性が高い。この抑圧音域では、ガイドメロディを構成する楽音以外の楽音の音量が小さいため、カラオケ装置10の利用者は、利用者自身が歌唱した声を聞き取りやすくなる。   By the way, when the user of the karaoke apparatus 10 sings the music played by the karaoke apparatus 10, the user often sings so that the pitch of the singing voice matches the pitch of the guide melody. That is, if the target music based on the corrected music data is played on the karaoke device 10, the pitch of the singing voice of the user of the karaoke device 10 is likely to be within the suppressed sound range. In this suppressed sound range, since the volume of the musical sound other than the musical sound constituting the guide melody is small, the user of the karaoke apparatus 10 can easily hear the voice sung by the user himself.

さらに、カラオケ装置10においては、リズム楽器に対応する各楽譜トラックに規定された楽音の音の強さは、楽曲データを生成したときの音の強さに維持される。このため、カラオケ装置10において、修正楽曲データに基づく対象楽曲を演奏すれば、当該楽曲のリズムは、カラオケ装置10の利用者にとって感知しやすい状態に維持される。   Furthermore, in the karaoke apparatus 10, the tone strength of the musical sound defined for each score track corresponding to the rhythm instrument is maintained at the tone strength when the music data is generated. For this reason, if the target music based on the corrected music data is played in the karaoke device 10, the rhythm of the music is maintained in a state that is easy for the user of the karaoke device 10 to detect.

これらの結果、カラオケ装置10(楽曲データ修正装置)によれば、カラオケ装置10にて演奏される楽曲を歌いやすくすることができる。換言すれば、カラオケ装置10によれば、カラオケ装置10にて演奏される楽曲が歌いやすくなるように楽曲データを修正する技術を提供できる。   As a result, according to the karaoke apparatus 10 (music data correction apparatus), it is possible to easily sing the music played on the karaoke apparatus 10. In other words, according to the karaoke apparatus 10, it is possible to provide a technique for correcting music data so that a music played on the karaoke apparatus 10 can be easily sung.

さらに、カラオケ装置10において、規定条件を満たす楽譜トラックに規定された全ての楽音を抑制楽音として、修正楽曲データを生成する場合には、楽譜トラック単位で音の強さを抑制することできる。この場合、カラオケ装置10によれば、簡易な方法で音の強さを抑制できる。   Furthermore, in the karaoke apparatus 10, when the corrected music data is generated by using all the musical sounds specified in the musical score track satisfying the predetermined conditions as the suppressed musical sounds, it is possible to suppress the sound intensity for each musical score track. In this case, according to the karaoke apparatus 10, the sound intensity can be suppressed by a simple method.

また、カラオケ装置10において、対象楽音のみを抑制楽音として、修正楽曲データを生成すれば、当該修正楽曲データを演奏した際に、音量が低下する楽音の数を必要最小限とすることができる。このため、修正楽曲データに基づいてカラオケ装置10にて演奏された対象楽曲を聴いた人が、当該対象楽曲の音が弱く、当該対象楽曲が貧弱であると感じることを抑制できる。
[第二実施形態]
次に、本発明の第二実施形態について説明する。
Further, in the karaoke apparatus 10, if the corrected music data is generated using only the target music as the suppressed music, the number of musical sounds whose volume is reduced when the corrected music data is played can be minimized. For this reason, it can suppress that the person who listened to the target music performed with the karaoke apparatus 10 based on correction music data feels that the sound of the said target music is weak and the said target music is poor.
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

本実施形態のカラオケ装置30(図1参照)は、第一実施形態のカラオケ装置10とは、制御部20が実行するMIDIアレンジ処理の処理内容が異なるのみである。
このため、本実施形態では、第一実施形態のカラオケ装置10と同一の構成には、同様の符号を付して説明を省略し、第一実施形態のカラオケ装置10とは異なるMIDIアレンジ処理を中心に説明する。
〈MIDIアレンジ処理〉
本実施形態におけるMIDIアレンジ処理は、楽曲データに基づく対象楽曲の演奏中に、カラオケ装置30の利用者が歌唱しやすい対象楽曲となるように楽曲データを修正する処理である。
The karaoke apparatus 30 (see FIG. 1) of the present embodiment differs from the karaoke apparatus 10 of the first embodiment only in the processing contents of the MIDI arrangement process executed by the control unit 20.
For this reason, in this embodiment, the same code | symbol is attached | subjected to the structure same as the karaoke apparatus 10 of 1st embodiment, description is abbreviate | omitted, and MIDI arrangement processing different from the karaoke apparatus 10 of 1st embodiment is performed. The explanation is centered.
<MIDI arrangement processing>
The MIDI arrangement process in the present embodiment is a process of correcting the music data so that the target music can be easily sung by the user of the karaoke apparatus 30 during the performance of the target music based on the music data.

図6は、本実施形態におけるMIDIアレンジ処理の処理手順を示すフローチャートである。
本実施形態におけるMIDIアレンジ処理は、起動されると、図6に示すように、対象楽曲に対応する楽曲データを取得する(S210)。S210にて取得した楽曲データ(以下、取得楽曲データと称す)に基づいて、対象楽曲におけるガイメロ音域を特定する(S220)。
FIG. 6 is a flowchart showing the processing procedure of the MIDI arrangement processing in the present embodiment.
When the MIDI arrangement process in the present embodiment is activated, music data corresponding to the target music is acquired as shown in FIG. 6 (S210). Based on the music data acquired in S210 (hereinafter referred to as “acquired music data”), the ghimero range in the target music is specified (S220).

そして、取得楽曲データに対応する楽曲の演奏を実行開始し、演奏音を音声出力部16から放音すると共に、歌詞データに基づく歌詞を表示部14に表示する(S230)。
続いて、音声入力部15を介して順次入力される音の波形を表す歌声波形データを、音声入力部15から取得する(S240)。カラオケ装置30において、楽曲の演奏中に音声入力部15を介して入力される音は、通常、カラオケ装置30の利用者が発した歌声である。このため、S240にて取得される歌声波形データは、利用者が発した歌声が時間軸に沿った波形を表す。また、本実施形態のS240では、歌声波形データの取得を、対象楽曲に対して予め規定された単位区間毎に実行する。この単位区間とは、ガイドメロディを形成する楽音のうちの予め規定された数の楽音に相当する区間でも良いし、予め規定された数の小節でも良いし、予め規定されたフレーズ(例えば、AメロやBメロ、サビ)でも良い。
Then, the performance of the music corresponding to the acquired music data is started, the performance sound is emitted from the audio output unit 16, and the lyrics based on the lyrics data are displayed on the display unit 14 (S230).
Subsequently, singing voice waveform data representing the waveform of sound sequentially input via the voice input unit 15 is acquired from the voice input unit 15 (S240). In the karaoke device 30, the sound input via the voice input unit 15 during the performance of the music is usually a singing voice uttered by the user of the karaoke device 30. For this reason, the singing voice waveform data acquired in S240 represents the waveform along the time axis of the singing voice uttered by the user. Moreover, in S240 of this embodiment, acquisition of singing voice waveform data is performed for every unit area prescribed | regulated previously with respect to the object music. The unit section may be a section corresponding to a predetermined number of musical sounds that form a guide melody, a predetermined number of measures, or a predetermined phrase (for example, A Melo, B melo, rust) may also be used.

そして、カラオケ装置30の利用者が、ガイドメロディを構成する個々の楽音に対して発した歌声の周波数(以下、歌声音高周波数と称す)vf0を、S240で取得した歌声波形データ、及び取得楽曲データに基づいて、時間軸に沿って順次推定する(S250)。 Then, the singing voice waveform data acquired in S240 and the frequency of the singing voice (hereinafter referred to as singing voice high frequency) vf 0 uttered by the user of the karaoke apparatus 30 with respect to the individual musical sounds constituting the guide melody are acquired. Based on the music data, estimation is performed sequentially along the time axis (S250).

具体的には、S240にて歌声波形データを取得すると、本実施形態のS250では、その取得した歌声波形データに基づいて、歌声の周波数(以下、瞬時音高周波数と称す)を単位時間毎に特定する。そして、ガイドメロディを形成する楽音の各々に対応する区間での全瞬時音高周波数を平均化及び平滑化することで、一つの楽音に対する歌声音高周波数vf0を導出する。ただし、単位時間は、ガイドメロディを形成する楽音の中で演奏時間が最も短い楽音の演奏時間長よりも短い時間長である。なお、瞬時音高周波数を特定する方法としては、時間軸上の自己相関を用いる方法や、周波数スペクトルの自己相関を用いる方法など、周知の手法を用いれば良いため、ここでの詳しい説明は省略する。 Specifically, when singing voice waveform data is acquired in S240, in S250 of the present embodiment, the frequency of the singing voice (hereinafter referred to as instantaneous pitch frequency) is obtained for each unit time based on the acquired singing voice waveform data. Identify. Then, the singing voice high frequency vf 0 for one musical sound is derived by averaging and smoothing all instantaneous pitch frequencies in the section corresponding to each musical sound forming the guide melody. However, the unit time is shorter than the performance time length of the musical sound having the shortest performance time among the musical sounds forming the guide melody. As a method for specifying the instantaneous pitch frequency, a well-known method such as a method using autocorrelation on the time axis or a method using autocorrelation of the frequency spectrum may be used, so detailed description thereof is omitted here. To do.

続いて、S250で導出された歌声音高周波数vf0のそれぞれと、各歌声音高周波数vf0に対応する楽音の音高との音高差(以下、音高差分と称す)DNを導出する(S260)。 Subsequently, respectively of the derived voice sound high-frequency vf 0 in S250, the pitch difference between the pitch of the musical tone corresponding to the singing voice sounds high frequency vf 0 (hereinafter, referred to as the pitch difference) to derive the DN (S260).

本実施形態のS260では、具体的に、S250にて導出された歌声音高周波数vf0を(1)式に代入することで、音高差分DNを導出する。なお、(1)式中のn0は、(1)式に代入する歌声音高周波数vf0に対応し、ガイドメロディを形成する楽音の音高(ただし、ノートナンバー)である。 In S260 of this embodiment, specifically, voice sounds derived in S250 high frequency vf 0 a (1) by substituting the equation to derive the pitch difference DN. Note that n0 in the equation (1) is the pitch (note number) of the musical sound that forms the guide melody corresponding to the singing voice pitch frequency vf 0 to be substituted into the equation (1).

すなわち、(1)式は、代入された歌声音高周波数vf0と、該歌声音高周波数vf0に対応し、かつガイドメロディを形成する楽音の音高(ノートナンバー)との差分を、代入された歌声音高周波数vf0を音高(ノートナンバー)に変換した上で求める式である。 That is, the expression (1) substitutes the difference between the substituted singing voice pitch frequency vf 0 and the pitch (note number) of the musical sound corresponding to the singing voice pitch high frequency vf 0 and forming the guide melody. This is an expression obtained after converting the singing voice pitch frequency vf 0 into a pitch (note number).

続いて、S260で導出した音高差分DNに基づいて、抑圧帯域を特定する(S270)。
本実施形態のS270では、具体的に、第一実施形態における抑圧帯域と同様、最低音高mf0minよりも予め規定された音高α分低い音高を、音域最低値n0minとして、最高音高mf0maxよりも予め規定された音高α分高い音高を、音域最高値n0maxとして特定する。そして、その特定した音域最低値n0minから音域最高値n0maxまでの音高範囲(以下、基準範囲とする)を音高差分DNに基づいて補正した音高範囲を、抑圧帯域として特定する。
Subsequently, a suppression band is specified based on the pitch difference DN derived in S260 (S270).
In S270 of the present embodiment, specifically, similarly to the suppression band in the first embodiment, the maximum pitch mf0max is set with a pitch that is a predetermined pitch α lower than the minimum pitch mf0min as the lowest range value n0min. A pitch that is higher than the pitch α defined in advance is specified as the highest range n0max. Then, the pitch range obtained by correcting the pitch range from the specified lowest range n0min to the highest range n0max (hereinafter referred to as a reference range) based on the pitch difference DN is specified as a suppression band.

本実施形態において、音高差分DNに基づく補正とは、音高差分DNに基づいて基準範囲を拡大することでも良いし、音高差分DNに基づいて基準範囲をシフトさせることでも良い。   In the present embodiment, the correction based on the pitch difference DN may be to enlarge the reference range based on the pitch difference DN, or to shift the reference range based on the pitch difference DN.

前者の場合、(2)式に基づいて、新たな音域最低値n0min'を導出し、(3)式に基づいて、新たな音域最高値n0max'を導出する。その上で、音域最低値n0min'から音域最高値n0max'までの音域(ノートナンバーの範囲)を抑圧帯域として特定する。ただし、(2)式,(3)式におけるKは、予め規定された「1」以上の定数である。   In the former case, a new lowest sound range value n0min ′ is derived based on equation (2), and a new highest sound range value n0max ′ is derived based on equation (3). Then, the sound range (note number range) from the lowest range n0min ′ to the highest range n0max ′ is specified as the suppression band. However, K in the expressions (2) and (3) is a constant equal to or greater than “1” defined in advance.

すなわち、この方法では、図7(A)に示す基準範囲が音高差分DNに比例して拡大されることで形成される図7(B)に示す範囲が、抑圧帯域として特定される。
一方、音高差分DNに基づく補正のうち、後者の方法の場合、(4)式に基づいて、新たな音域最低値n0min'を導出し、(5)式に基づいて、新たな音域最高値n0max'を導出する。ただし、(4)式、及び(5)式におけるroundは、入力値を整数に近似して返答する関数である。また、本実施形態においては、(4)式で導出される音域最低値n0min'が最低音高mf0minより高い音高である場合、最低音高mf0minを音域最低値n0min'とし、(5)式で導出される音域最高値n0max'が最高音高mf0maxよりも低い音高である場合、最高音高mf0maxを音域最高値n0max'とするようにされている。
That is, in this method, the range shown in FIG. 7B formed by expanding the reference range shown in FIG. 7A in proportion to the pitch difference DN is specified as the suppression band.
On the other hand, of the correction based on the pitch difference DN, in the case of the latter method, a new lowest range value n0min ′ is derived based on the equation (4), and a new highest range value is calculated based on the equation (5). n0max ′ is derived. However, round in the equations (4) and (5) is a function that returns an input value approximated to an integer. Further, in the present embodiment, when the pitch minimum value n0min ′ derived by the formula (4) is higher than the minimum pitch mf0min, the minimum pitch mf0min is set as the pitch minimum value n0min ′, and the formula (5) When the maximum range n0max ′ derived in step S1 is lower than the maximum pitch mf0max, the maximum pitch mf0max is set to the maximum range n0max ′.

そして、音域最低値n0min'から音域最高値n0max'までの音域(ノートナンバーの範囲)を抑圧帯域として特定する。
すなわち、この方法では、図8(A)に示す基準範囲を音高差分DNシフトすることで、図8(B)に示す抑圧帯域が規定される。
Then, the sound range (note number range) from the lowest range n0min ′ to the highest range n0max ′ is specified as the suppression band.
In other words, in this method, the suppression band shown in FIG. 8B is defined by shifting the reference range shown in FIG.

ここで、MIDIアレンジ処理へと戻り、続くS280では、本MIDIアレンジ処理にて修正を加える対象となる楽音(以下、抑制楽音とする)を特定する。この抑制楽音を特定する方法は、第一実施形態におけるS140と同様であるため、ここでの詳しい説明は省略する。   Here, the process returns to the MIDI arrangement process, and in the subsequent S280, a musical sound to be corrected in the present MIDI arrangement process (hereinafter referred to as a “suppressed musical sound”) is specified. Since the method for specifying the suppressed musical tone is the same as S140 in the first embodiment, a detailed description thereof is omitted here.

さらに、S280で特定された全ての抑制楽音の音の強さが低減されるように、取得楽曲データを修正する(S290)。このS290にて、全ての対象楽音の音の強さが低減するように修正した楽曲データが、修正楽曲データとなる。ただし、本実施形態のS290では、楽曲データの修正を単位区間毎に実行する。そして、その楽曲データを修正する対象となる単位区間は、今サイクルのS240にて取得した歌声波形データに対応する単位区間よりも時間軸に沿って楽曲の最後に近い単位区間である。なお、現サイクルとは、S230から後述するS300を繰り返す一連のサイクルであって、現在実行されているサイクルである。   Further, the acquired music data is modified so that the strengths of all the suppressed musical sounds identified in S280 are reduced (S290). In this S290, the music data corrected so as to reduce the intensity of all the target musical sounds becomes the corrected music data. However, in S290 of the present embodiment, the music data is corrected for each unit section. The unit section that is a target for correcting the music data is a unit section that is closer to the end of the music along the time axis than the unit section corresponding to the singing voice waveform data acquired in S240 of the current cycle. The current cycle is a series of cycles in which S300, which will be described later, is repeated from S230, and is a currently executed cycle.

なお、本実施形態において、音の強さを低減させる方法は、第一実施形態におけるS150と同様であるため、ここでの詳しい説明は省略する。
続いて、取得楽曲データに規定された全ての楽音について演奏が完了したか否かを判定する(S300)。このS300での判定の結果、全ての楽音について、演奏が完了していなければ(S300:NO)、S230へと戻る。そのS230(即ち、次のサイクルのS230)では、現サイクルのS230にて演奏した単位区間の次の単位区間について演奏する。なお、このように全ての楽音について演奏が完了していない場合に、次のS230にて演奏される規定条件を満たすハーモニー伴奏楽器音は、先のS290にて楽音の音の強さが修正されたものである。すなわち、対象楽音についての音量は小さくなる。
In the present embodiment, the method for reducing the sound intensity is the same as S150 in the first embodiment, and thus detailed description thereof is omitted here.
Subsequently, it is determined whether or not the performance has been completed for all the musical sounds defined in the acquired music data (S300). As a result of the determination in S300, if the performance has not been completed for all the musical sounds (S300: NO), the process returns to S230. In S230 (that is, S230 of the next cycle), the performance is performed for the unit section next to the unit section played in S230 of the current cycle. When the performance of all the musical sounds is not completed as described above, the intensity of the musical sound of the harmony accompaniment instrument sound that satisfies the specified condition played in the next S230 is corrected in the previous S290. It is a thing. That is, the volume of the target musical sound is reduced.

一方、S300での判定の結果、全ての楽音について演奏が完了していれば(S300:YES)、本MIDIアレンジ処理を終了し、次の起動指令が入力されるまで待機する。
[第二実施形態の効果]
以上説明したように、カラオケ装置30によれば、音域最低値n0min'及び音域最高値n0max'を、音高差分DNに応じて規定することができる。このため、カラオケ装置30によれば、利用者自身の声域が抑圧音域に含まれる可能性を向上させることができる。
On the other hand, as a result of the determination in S300, if the performance has been completed for all the musical tones (S300: YES), this MIDI arrangement process is terminated, and the process waits until the next start command is input.
[Effects of Second Embodiment]
As described above, according to the karaoke apparatus 30, the lowest sound range value n0min ′ and the highest sound range value n0max ′ can be defined according to the pitch difference DN. For this reason, according to the karaoke apparatus 30, possibility that a user's own voice range will be contained in a suppression sound range can be improved.

そして、このような抑圧音域に音高が含まれる楽音を対象楽音とした上で生成した修正楽曲データに基づき、カラオケ装置30にて対象楽曲を演奏すれば、その対象楽曲を歌唱した利用者は、利用者自身が歌唱した声をより聞き取りやすくなり、当該対象楽曲が歌いやすくなる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
And if the target music is played in the karaoke apparatus 30 based on the corrected music data generated after setting the music whose pitch is included in the suppressed sound range as the target music, the user who sang the target music The voice sung by the user himself / herself becomes easier to hear, and the target music becomes easier to sing.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記第二実施形態におけるMIDIアレンジ処理は、楽曲データに基づく対象楽曲の演奏中に、カラオケ装置30の利用者が歌唱しやすい対象楽曲となるように楽曲データを修正する処理であったが、第二実施形態におけるMIDIアレンジ処理は、これに限るものではない。   For example, the MIDI arrangement process in the second embodiment is a process of correcting music data so that the user of the karaoke apparatus 30 can easily sing during the performance of the target music based on the music data. The MIDI arrangement process in the second embodiment is not limited to this.

すなわち、第二実施形態におけるMIDIアレンジ処理は、楽曲データに基づく対象楽曲の演奏を実行する前に、カラオケ装置30の利用者が歌唱しやすい対象楽曲となるように楽曲データを修正する処理であっても良い。   That is, the MIDI arrangement process in the second embodiment is a process of correcting the music data so that the user of the karaoke apparatus 30 can easily sing before performing the performance of the target music based on the music data. May be.

この場合、音高差分DNの導出方法は、種種の方法が考えられるが、一例としては、以下のようにすれば良い。
まず、記憶部18などに記憶された歌声波形データの中から、入力受付部13を介してカラオケ装置30の利用者が指定した利用者識別番号と対応付けられた歌声波形データを取得する。その取得した歌声波形データに基づいて、カラオケ装置30の利用者が発声可能な音域(以下、発声可能音域と称す)の代表値を導出する。そして、その導出された発声可能音域の代表値とガイメロ音域の代表値との差分を、音高差分DNとして導出する。
In this case, various methods can be considered as a method for deriving the pitch difference DN. As an example, the following method may be used.
First, singing voice waveform data associated with the user identification number designated by the user of the karaoke apparatus 30 is acquired from the singing voice waveform data stored in the storage unit 18 or the like via the input receiving unit 13. Based on the acquired singing voice waveform data, a representative value of a sound range that the user of the karaoke apparatus 30 can utter (hereinafter referred to as a utterable sound range) is derived. Then, a difference between the derived representative value of the utterable range and the representative value of the ghimero range is derived as a pitch difference DN.

なお、上記実施形態においては、楽曲データ修正装置を、カラオケ装置10,30の一つの機能として実現していたが、本発明における楽曲データ修正装置は、これに限るものではない。例えば、通信カラオケシステムとして、カラオケ端末と、カラオケ端末に楽曲データを配信するサーバとを備えた通信カラオケシステムが構成されている場合には、サーバを楽曲データ修正装置として機能させても良い。また、楽曲データ修正装置として専用の装置を設けても良い。
[実施形態と特許請求の範囲との対応関係]
最後に、上記実施形態の記載と、特許請求の範囲の記載との関係を説明する。
In the above embodiment, the music data correction device is realized as one function of the karaoke devices 10 and 30, but the music data correction device in the present invention is not limited to this. For example, when a communication karaoke system including a karaoke terminal and a server that distributes music data to the karaoke terminal is configured as the communication karaoke system, the server may function as a music data correction device. A dedicated device may be provided as the music data correction device.
[Correspondence between Embodiment and Claims]
Finally, the relationship between the description of the above embodiment and the description of the scope of claims will be described.

第一実施形態のMIDIアレンジ処理におけるS110、及び第二実施形態のMIDIアレンジ処理におけるS210が、特許請求の範囲における楽曲データ取得手段に相当し、第一実施形態のMIDIアレンジ処理におけるS120,S130、及び第二実施形態のMIDIアレンジ処理におけるS220,S260,S270が、特許請求の範囲における抑圧音域特定手段に相当する。さらに、第一実施形態のMIDIアレンジ処理におけるS140、及び第二実施形態のMIDIアレンジ処理におけるS280が、特許請求の範囲における抑制楽音特定手段に相当し、第一実施形態のMIDIアレンジ処理におけるS150、及び第二実施形態のMIDIアレンジ処理におけるS290が、特許請求の範囲におけるデータ修正手段に相当する。   S110 in the MIDI arrangement process of the first embodiment and S210 in the MIDI arrangement process of the second embodiment correspond to music data acquisition means in the claims, and S120, S130 in the MIDI arrangement process of the first embodiment. And S220, S260, and S270 in the MIDI arrangement processing of the second embodiment correspond to the suppressed sound range specifying means in the claims. Furthermore, S140 in the MIDI arrangement process of the first embodiment and S280 in the MIDI arrangement process of the second embodiment correspond to the suppression musical tone specifying means in the claims, and S150 in the MIDI arrangement process of the first embodiment. And S290 in the MIDI arrangement processing of the second embodiment corresponds to the data correction means in the claims.

また、第二実施形態のMIDIアレンジ処理におけるS240が、特許請求の範囲における歌声データ取得手段に相当し、S250が、特許請求の範囲における歌唱音高特定手段に相当し、S260が、特許請求の範囲における音高差分導出手段に相当し、S270が、特許請求の範囲における抑圧音域決定手段に相当する。   Further, S240 in the MIDI arrangement processing of the second embodiment corresponds to the singing voice data acquisition means in the claims, S250 corresponds to the singing pitch identification means in the claims, and S260 corresponds to the claims. This corresponds to the pitch difference deriving means in the range, and S270 corresponds to the suppressed sound range determining means in the claims.

10,30…カラオケ装置 11…通信部 13…入力受付部 14…表示部 15…音声入力部 16…音声出力部 17…音源モジュール 18…記憶部 20…制御部 21…ROM 22…RAM 23…CPU   DESCRIPTION OF SYMBOLS 10,30 ... Karaoke apparatus 11 ... Communication part 13 ... Input reception part 14 ... Display part 15 ... Audio | voice input part 16 ... Audio | voice output part 17 ... Sound source module 18 ... Memory | storage part 20 ... Control part 21 ... ROM 22 ... RAM 23 ... CPU

Claims (8)

少なくとも1種類の楽器の音を出力可能なカラオケ装置にて演奏される楽曲を表し、該楽曲にて歌唱されるべき旋律を表すガイドメロディの演奏を担当する楽器の音であるガイメロ楽器音、該ガイドメロディに対する少なくとも一つの副次的な旋律の演奏を担当する各楽器の音であるハーモニー伴奏楽器音、及び該楽曲のリズムを刻む楽器の音であるリズム楽器音について、それぞれ、個々の楽音の音高、演奏開始タイミング、及び音の強さが規定された楽譜トラックを有した楽曲データを取得する楽曲データ取得手段と、
少なくとも前記楽曲データ取得手段で取得した楽曲データに基づいて、前記ガイメロ楽器音に対応する楽譜トラックにおける楽音の最低音高から最高音高までの音高範囲を含むように規定された音域最低値から音域最高値までの音域である抑圧音域を特定する抑圧音域特定手段と、
前記ハーモニー伴奏楽器音に対応する各楽譜トラックにおける楽音の中で、音高が、前記抑圧音域特定手段で特定された抑圧音域内である対象楽音を特定し、その特定した対象楽音を少なくとも含む楽音である抑制楽音を特定する抑制楽音特定手段と、
前記抑制楽音特定手段で特定された抑制楽音の音の強さが低減するように、前記楽曲データを修正した修正楽曲データを生成するデータ修正手段と
を備えることを特徴とする楽曲データ修正装置。
A musical instrument sound that is a sound of a musical instrument that represents a musical piece that is played by a karaoke device capable of outputting the sound of at least one musical instrument, and that plays a guide melody that represents a melody to be sung by the musical piece, For each musical tone, the harmony accompaniment instrument sound, which is the sound of each instrument responsible for the performance of at least one secondary melody with respect to the guide melody, and the rhythm instrument sound, which is the sound of the instrument that engraves the rhythm of the music, respectively. Music data acquisition means for acquiring music data having a musical score track in which pitch, performance start timing, and sound intensity are defined;
From at least the lowest range of the range defined to include the pitch range from the lowest pitch of the musical tone to the highest pitch in the musical score track corresponding to the musical instrument sound based on the song data acquired by the song data acquisition means at least A suppressed sound range specifying means for specifying a suppressed sound range that is a range up to the highest value of the range,
Among the musical tones in each musical score track corresponding to the harmony accompaniment instrument sound, a musical tone whose pitch is within the suppression range specified by the suppression range specifying means is specified, and the musical tone including at least the specified target musical tone A suppression tone identification means for identifying the suppression tone that is,
A music data correction apparatus comprising: data correction means for generating corrected music data in which the music data is corrected so that the intensity of the sound of the suppression music specified by the suppression music sound specifying means is reduced.
前記抑制楽音特定手段は、
前記ハーモニー伴奏楽器音に対応する個々の楽譜トラックに規定された全楽音のうち、前記対象楽音の占める割合が予め規定された規定割合以上である楽譜トラックを特定し、その特定した楽譜トラックに規定された全ての楽音を、前記抑制楽音とすることを特徴とする請求項1に記載の楽曲データ修正装置。
The suppression musical tone specifying means is:
Among all the musical tones specified for each musical score track corresponding to the harmony accompaniment instrument sound, a musical score track in which the proportion of the target musical sound is equal to or higher than a predetermined specific proportion is specified, and the specified musical score track is specified. The music data correction device according to claim 1, wherein all the musical tones are set as the suppressed musical tones.
前記抑制楽音特定手段は、
前記対象楽音の各々を、前記抑制楽音とすることを特徴とする請求項1に記載の楽曲データ修正装置。
The suppression musical tone specifying means is:
The music data correction device according to claim 1, wherein each of the target musical sounds is the suppressed musical sound.
前記データ修正手段は、
前記音の強さが低減するように予め規定された規定係数を、前記抑制楽音それぞれの音の強さに乗じることで、前記修正楽曲データを生成することを特徴とする請求項1から請求項3のいずれか一項に記載の楽曲データ修正装置。
The data correction means includes
The corrected music data is generated by multiplying the sound intensity of each of the suppression musical sounds by a specified coefficient that is defined in advance so as to reduce the sound intensity. 4. The music data correction device according to any one of 3 above.
前記データ修正手段は、
前記音の強さが低減するように予め規定された規定値を、前記抑制楽音それぞれの音の強さから減算することで、前記修正楽曲データを生成することを特徴とする請求項1から請求項3のいずれか一項に記載の楽曲データ修正装置。
The data correction means includes
The modified music data is generated by subtracting a specified value that is specified in advance so as to reduce the sound intensity from the sound intensity of each of the suppression musical sounds. Item 4. The music data correction device according to any one of Items 3 to 4.
前記楽曲データに基づく演奏に対して歌唱された歌声の時間軸に沿った波形を表す歌声波形データを取得する歌声データ取得手段と、
前記歌声データ取得手段で取得した歌声波形データに基づいて、歌声の音高を表す歌声音高を時間軸に沿って順次特定する歌唱音高特定手段と
を備え、
前記抑圧音域特定手段は、
前記ガイメロ楽器に対応する楽譜トラックにおける楽音の音高と、前記歌唱音高特定手段で特定された歌声音高との差分である音高差分を導出する音高差分導出手段と、
前記音高差分導出手段で導出した音高差分に基づいて、前記音域最低値、及び前記音域最高値を規定する抑圧音域決定手段と
を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の楽曲データ修正装置。
Singing voice data obtaining means for obtaining singing voice waveform data representing a waveform along a time axis of a singing voice sung for a performance based on the music data;
Based on the singing voice waveform data acquired by the singing voice data acquisition means, the singing voice pitch specifying means for sequentially specifying the singing voice pitch representing the pitch of the singing voice along the time axis, and
The suppressed sound range specifying means includes:
A pitch difference deriving unit for deriving a pitch difference which is a difference between a pitch of a musical tone in a score track corresponding to the gimmel instrument and a singing pitch specified by the singing pitch specifying unit;
6. The suppressed sound range determining means for defining the lowest range value and the highest range value based on the pitch difference derived by the pitch difference deriving unit. The music data correction apparatus according to claim 1.
前記音域最低値として前記最低音高よりも低い音高が、前記音域最高値として前記最高音高よりも高い音高が、予め規定されており、
前記抑圧音域決定手段は、
該音域最低値が、前記音高差分の大きさに比例してより低い音高となるように、新たな音域最低値を規定し、
前記音域最高値が、前記音高差分の大きさに比例してより高い音高となるように、新たな音域最高値を規定する
ことを特徴とする請求項6に記載の楽曲データ修正装置。
The pitch lower than the lowest pitch as the lowest value of the range, and the higher pitch than the highest pitch as the highest value of the range is defined in advance,
The suppressed sound range determination means includes
A new minimum range value is defined so that the minimum range value becomes a lower pitch in proportion to the magnitude of the pitch difference,
The music data correction device according to claim 6, wherein a new maximum sound range value is defined so that the maximum sound range value becomes a higher pitch in proportion to the magnitude of the pitch difference.
前記音域最低値として前記最低音高よりも低い音高が、前記音域最高値として前記最高音高よりも高い音高が、予め規定されており、
前記抑圧音域決定手段は、
前記音域最低値から前記音高差分シフトした音高を、新たな音域最低値として規定し、
前記音域最高値から前記音高差分シフトした音高を、新たな音域最高値として規定する
ことを特徴とする請求項6に記載の楽曲データ修正装置。
The pitch lower than the lowest pitch as the lowest value of the range, and the higher pitch than the highest pitch as the highest value of the range is defined in advance,
The suppressed sound range determination means includes
The pitch shifted from the lowest pitch value by the pitch difference is defined as a new lowest pitch value,
The music data correction device according to claim 6, wherein a pitch obtained by shifting the pitch difference from the highest range is defined as a new highest range value.
JP2011025096A 2011-02-08 2011-02-08 Music data correction device Active JP5418518B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011025096A JP5418518B2 (en) 2011-02-08 2011-02-08 Music data correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011025096A JP5418518B2 (en) 2011-02-08 2011-02-08 Music data correction device

Publications (2)

Publication Number Publication Date
JP2012163827A JP2012163827A (en) 2012-08-30
JP5418518B2 true JP5418518B2 (en) 2014-02-19

Family

ID=46843250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011025096A Active JP5418518B2 (en) 2011-02-08 2011-02-08 Music data correction device

Country Status (1)

Country Link
JP (1) JP5418518B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5960635B2 (en) * 2013-03-29 2016-08-02 株式会社エクシング Instrument sound output device
JP6401914B2 (en) * 2014-02-05 2018-10-10 東日本旅客鉄道株式会社 Volume control device and station platform broadcasting system
JP6939922B2 (en) * 2019-03-25 2021-09-22 カシオ計算機株式会社 Accompaniment control device, accompaniment control method, electronic musical instrument and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2785436B2 (en) * 1990-04-11 1998-08-13 ブラザー工業株式会社 Karaoke equipment
JPH05323983A (en) * 1992-05-25 1993-12-07 Roland Corp Orchestral accompaniment device
JP2830695B2 (en) * 1993-06-21 1998-12-02 ヤマハ株式会社 Karaoke equipment
JPH0944174A (en) * 1995-07-31 1997-02-14 Sanyo Electric Co Ltd Karaoke sing-along machine
JP4305084B2 (en) * 2003-07-18 2009-07-29 ブラザー工業株式会社 Music player
JP4190968B2 (en) * 2003-07-29 2008-12-03 株式会社第一興商 Karaoke device that sequentially controls the volume of the guide melody for each phrase based on the time-series scoring record for each phrase
JP4237768B2 (en) * 2006-02-17 2009-03-11 株式会社タイトー Voice processing apparatus and voice processing program

Also Published As

Publication number Publication date
JP2012163827A (en) 2012-08-30

Similar Documents

Publication Publication Date Title
US9064485B2 (en) Tone information processing apparatus and method
JP5418518B2 (en) Music data correction device
JP5413380B2 (en) Music data correction device
JP5418525B2 (en) Karaoke equipment
JP5418524B2 (en) Music data correction device
JP5292702B2 (en) Music signal generator and karaoke device
JP2017181793A (en) Sound processing device and program
JP5782972B2 (en) Information processing system, program
JP5267495B2 (en) Musical instrument sound separation device and program
JP6406273B2 (en) Karaoke device and program
JP6075314B2 (en) Program, information processing apparatus, and evaluation method
JP5810947B2 (en) Speech segment specifying device, speech parameter generating device, and program
JP5310677B2 (en) Sound source separation apparatus and program
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP5569307B2 (en) Program and editing device
JP5983670B2 (en) Program, information processing apparatus, and data generation method
JP2012118234A (en) Signal processing device and program
JP2889841B2 (en) Chord change processing method for electronic musical instrument automatic accompaniment
US20230290325A1 (en) Sound processing method, sound processing system, electronic musical instrument, and recording medium
JP5287782B2 (en) Singing assistance device and program
JP5034471B2 (en) Music signal generator and karaoke device
JP5549651B2 (en) Lyric output data correction device and program
JP5541008B2 (en) Data correction apparatus and program
JP6036800B2 (en) Sound signal generating apparatus and program
JP5659501B2 (en) Electronic music apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

R150 Certificate of patent or registration of utility model

Ref document number: 5418518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150