JP5287782B2 - Singing assistance device and program - Google Patents

Singing assistance device and program Download PDF

Info

Publication number
JP5287782B2
JP5287782B2 JP2010081542A JP2010081542A JP5287782B2 JP 5287782 B2 JP5287782 B2 JP 5287782B2 JP 2010081542 A JP2010081542 A JP 2010081542A JP 2010081542 A JP2010081542 A JP 2010081542A JP 5287782 B2 JP5287782 B2 JP 5287782B2
Authority
JP
Japan
Prior art keywords
sound
timing
time
special
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010081542A
Other languages
Japanese (ja)
Other versions
JP2011215254A (en
Inventor
友彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010081542A priority Critical patent/JP5287782B2/en
Publication of JP2011215254A publication Critical patent/JP2011215254A/en
Application granted granted Critical
Publication of JP5287782B2 publication Critical patent/JP5287782B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、楽曲の歌唱を補助する歌唱補助装置、及びプログラムに関する。   The present invention relates to a singing assistance device and a program for assisting singing music.

従来、楽曲において歌唱されるべき旋律(以下、基準旋律とする)を構成する各構成音を出力するタイミングである発音タイミングが規定された楽曲データに基づいて、基準旋律を演奏すると共に、その楽曲における歌詞を表示し、基準旋律の時間軸に沿った進行に連動して、歌詞の表示色を変更するカラオケ装置が知られている。   Conventionally, while playing the reference melody based on the song data in which the sound generation timing, which is the timing of outputting each constituent sound that constitutes the melody to be sung in the song (hereinafter referred to as the reference melody), is defined, and the song There is known a karaoke apparatus that displays the lyrics and changes the display color of the lyrics in conjunction with the progress along the time axis of the reference melody.

この種のカラオケ装置の中には、発音タイミングと、当該発音タイミングに対して発声されたタイミング(以下、発声タイミングとする)との時間差を検出し、その検出した時間差に基づいて、歌詞の表示色を変更するタイミング(以下、変更タイミングとする)を制御するものがある(特許文献1参照)。   In this kind of karaoke apparatus, the time difference between the sound generation timing and the time when the sound is uttered with respect to the sound generation timing (hereinafter referred to as the sounding timing) is detected, and the lyrics are displayed based on the detected time difference. Some control color change timing (hereinafter referred to as change timing) (see Patent Document 1).

すなわち、特許文献1に記載のカラオケ装置では、発声タイミングが発音タイミングに対して遅れていれば、変更タイミングを早くし、発声タイミングが発音タイミングに対して早まれば、変更タイミングを遅くする。   That is, in the karaoke apparatus described in Patent Document 1, if the utterance timing is delayed with respect to the pronunciation timing, the change timing is advanced, and if the utterance timing is advanced with respect to the pronunciation timing, the change timing is delayed.

特開2005−173256号公報JP 2005-173256 A

上述したような特許文献1に記載のカラオケ装置を用いて歌唱する場合、歌唱者は、基準旋律を聞きつつ、楽曲の歌詞の表示を視認して、発音タイミングに発声タイミングを一致させる必要がある。   When singing using the karaoke device described in Patent Document 1 as described above, the singer needs to visually recognize the display of the lyrics of the music while listening to the reference melody and to match the utterance timing with the pronunciation timing. .

ところが、楽曲を歌唱する際に発音タイミングと発声タイミングとの間に時間差が生じる歌唱が下手な歌唱者にとって、表示されている楽曲の歌詞を視認することと、演奏されている基準旋律の構成音を聞くこととの両方を実施しながら、発音タイミングに発声タイミングを一致させることは困難である。   However, for a singer who is not good at singing, when the song sings, there is a time difference between the pronunciation timing and the utterance timing. It is difficult to match the utterance timing to the pronunciation timing while performing both listening to the voice.

つまり、特許文献1に記載のカラオケ装置では、歌唱が下手な歌唱者に、発音タイミングに発声タイミングを一致させて歌唱させることが困難であるという問題がある。
そこで、本発明は、歌唱が下手な歌唱者であっても、発声タイミングを容易に発音タイミングに一致させること可能な歌唱補助装置、及びプログラムを提供することを目的とする。
That is, in the karaoke apparatus described in Patent Document 1, it is difficult for a singer who is not good at singing to make the utterance timing coincide with the pronunciation timing.
Therefore, an object of the present invention is to provide a singing assistance device and a program that can easily match the utterance timing with the pronunciation timing even if the singer is a poor singer.

上記目的を達成するためになされた本発明の歌唱補助装置は、演奏手段と、時間導出手段と、特別音設定手段と、対象特定手段と、強調制御手段とを備えている。
この本発明の歌唱補助装置では、楽曲の楽譜を表し、歌唱されるべき旋律を構成する各構成音を出力する発音タイミング、及び少なくとも一種類の楽器の楽器音を模擬した特定音を出力する出力タイミングが規定された楽曲データに従って、演奏手段が、楽曲を演奏し、その演奏手段での楽曲の演奏中に入力された音声に基づいて、当該演奏中に出力された構成音に対応する発音タイミングである特定タイミングに対する、当該構成音に対して発声が開始されたタイミングである発声タイミングの時間差を表すズレ時間を、時間導出手段が導出する。
The singing assistance device of the present invention made to achieve the above object includes performance means, time derivation means, special sound setting means, object specifying means, and emphasis control means.
In the singing auxiliary device of the present invention, the musical score of the music, the sound generation timing for outputting each constituent sound constituting the melody to be sung, and the output for outputting the specific sound simulating the instrument sound of at least one kind of instrument According to the music data for which the timing is defined, the performance means plays the music and, based on the voice input during the performance of the music on the performance means, the sound generation timing corresponding to the constituent sound output during the performance The time deriving means derives a time difference indicating a time difference between the utterance timings at which the utterance is started with respect to the specific sound.

その導出されたズレ時間が、予め規定された時間長である規定時間以上であれば、特別音設定手段が、少なくとも、当該ズレ時間に対応する特定タイミング以降に出力される構成音である特別構成音を設定し、対象特定手段が、その設定された各特別構成音の発音タイミングから、当該特別構成音の発音タイミングと同じタイミングとみなせる期間として予め規定された特別時間以内に出力タイミングとなる特定音である対象楽器音を特定すると共に、強調制御手段が、対象特定手段にて特定された対象楽器音が、当該対象楽器音に対応する特別構成音の発音タイミングにて強調して出力されるように制御する強調制御を実行する。   If the derived deviation time is equal to or longer than a prescribed time that is a prescribed time length, the special sound setting means is a special sound that is a constituent sound that is output at least after a specific timing corresponding to the deviation time. A sound is set, and the target specifying means is an output timing within a special time defined in advance as a period that can be regarded as the same timing as the sound generation timing of the special component sound from the sound generation timing of each special component sound that is set The target instrument sound that is a sound is specified, and the emphasis control means emphasizes and outputs the target instrument sound specified by the target specifying means at the sounding timing of the special component sound corresponding to the target instrument sound. The emphasis control is performed to control as follows.

本発明の歌唱補助装置によれば、特別構成音の発音タイミングに対象楽器音が強調して出力されることで、特別構成音の発音タイミングを、楽曲の歌詞を視認させることなく、聴覚のみを用いて、歌唱者に認識させることができる。   According to the singing assistance device of the present invention, the target instrument sound is emphasized and output at the sound generation timing of the special component sound, so that the sound generation timing of the special component sound can be heard only without making the lyrics of the music visible. Use it to make the singer recognize.

この結果、特許文献1に記載のカラオケ装置に比べて、特別構成音の発音タイミングを認識するために必要となる情報が、視覚情報及び聴覚情報の2つから聴覚情報の1つに減少し、歌唱が下手な歌唱者であっても、構成音の発音タイミングに発声タイミングを一致させて歌唱することが容易となる。   As a result, compared to the karaoke device described in Patent Document 1, the information necessary for recognizing the sound generation timing of the special component sound is reduced from two of visual information and auditory information to one of auditory information, Even a singer who is not good at singing can easily sing with the utterance timing matched with the sound generation timing of the constituent sounds.

本発明の歌唱補助装置における強調制御手段は、請求項2に記載のように、ズレ時間が長いほど、対象楽器音が出力される音量を、当該対象楽器音に対応する特別構成音の発音タイミングにて大きくすることを強調制御として実行しても良い。   As described in claim 2, the emphasis control means in the singing assistance device according to the present invention sets the volume at which the target instrument sound is output as the deviation time is longer, and the sound generation timing of the specially configured sound corresponding to the target instrument sound. It is also possible to execute increasing as the emphasis control.

このような本発明の歌唱補助装置によれば、ズレ時間が長いほど対象楽器音の音量が大きくなるため、歌唱が下手な歌唱者に、特別構成音の発音タイミングをより確実に認識させることができる。   According to the singing auxiliary device of the present invention, since the volume of the target instrument sound increases as the deviation time increases, it is possible to make a singer who is poor in singing more reliably recognize the sound generation timing of the special component sound. it can.

ところで、通常、特定タイミングと発声タイミングとのズレ時間が長いほど、歌唱者は、歌唱が下手であることが多い。
このため、本発明の歌唱補助装置における特別音設定手段は、請求項3に記載のように、ズレ時間が長いほど、多くの構成音を特別構成音として設定しても良い。このような本発明の歌唱補助装置によれば、歌唱が下手な歌唱者に、より多くの発音タイミングに発声タイミングが一致するように発声させることができる。
By the way, usually, the longer the time difference between the specific timing and the utterance timing, the more the singer is poor at singing.
For this reason, the special sound setting means in the singing assistance device of the present invention may set a larger number of component sounds as the special component sounds as the shift time is longer. According to such a singing assistance device of the present invention, a singer who is poor in singing can be uttered so that the utterance timing matches the more pronunciation timings.

さらに、本発明の歌唱補助装置における対象特定手段は、請求項4に記載のように、特別構成音の発音タイミングから特別時間以内に出力タイミングとなる特定音が楽曲データ中に存在しない場合、新たに追加した特定音を対象楽器音としても良い。   Furthermore, the object specifying means in the singing assistance device according to the present invention, as described in claim 4, when there is no specific sound that is output timing within special time from the sound generation timing of the special component sound, The specific sound added to may be used as the target instrument sound.

このような本発明の歌唱補助装置によれば、全ての特別構成音の発音タイミングに対象楽器音が強調して確実に出力されるため、全ての特別構成音の発音タイミングを、歌唱者に認識させることができる。この結果、当該楽曲を、より歌唱しやすいものとすることができる。   According to such a singing auxiliary device of the present invention, since the target instrument sound is emphasized and reliably output at the sound generation timing of all the special component sounds, the singers recognize the sound generation timings of all the special component sounds. Can be made. As a result, the music can be made easier to sing.

また、本発明の歌唱補助装置において、対象楽器音に対応する楽器は、請求項5に記載のように、楽曲において、リズムを刻む楽器であることが望ましい。
このような楽器の楽器音を対象楽器音とする理由は、歌唱者に、特別構成音の発音タイミングを容易に認識させることができるためである。
Moreover, in the singing assistance apparatus of the present invention, it is desirable that the musical instrument corresponding to the target musical instrument sound is a musical instrument that engraves a rhythm in music.
The reason why the musical instrument sound of such a musical instrument is the target musical instrument sound is that the singer can easily recognize the sound generation timing of the special component sound.

なお、本発明は、コンピュータを歌唱補助装置として機能させるためのプログラムであっても良い。
本発明が、このようなプログラムとしてなされている場合、本発明のプログラムは、請求項6に記載されたように、楽曲データに従って、楽曲を演奏する演奏手順と、その楽曲の演奏中に入力された音声に基づいて、特定タイミングに対する、当該構成音の発声タイミングの時間差を表すズレ時間を導出する時間導出手順と、その導出されたズレ時間が規定時間以上であれば、特別構成音を設定する特別音設定手順と、その設定された各特別構成音の発音タイミングから、特別時間以内に出力タイミングとなる特定音である対象楽器音を特定する対象特定手順と、その特定された対象楽器音が、当該対象楽器音に対応する特別構成音の発音タイミングにて強調して出力されるように制御する強調制御を実行する強調制御手順とをコンピュータに実行させる必要がある。
The present invention may be a program for causing a computer to function as a singing assistance device.
When the present invention is configured as such a program, the program of the present invention is input according to the music data according to the music data and the performance procedure for performing the music and the performance of the music. Based on the received voice, a time derivation procedure for deriving a time difference representing the time difference of the utterance timing of the constituent sound with respect to the specific timing, and a special constituent sound is set if the derived time difference is equal to or longer than a specified time From the special sound setting procedure and the sound generation timing of each special component sound that has been set, the target specifying procedure for specifying the target instrument sound that is the specific sound that will be output within the special time, and the specified target instrument sound And an emphasis control procedure for executing emphasis control for controlling the sound to be emphasized and output at the sounding timing of the specially configured sound corresponding to the target musical instrument sound. There is a need to be executed.

本発明が、このようになされたプログラムであれば、例えば、DVD−ROM、CD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータにロードさせて起動することや、必要に応じて通信回線を介してコンピュータに取得させて起動することにより用いることができる。そして、コンピュータに各手順を実行させることで、そのコンピュータを、請求項1に記載された歌唱補助装置として機能させることができる。   If the present invention is a program made in this way, it can be recorded on a computer-readable recording medium such as a DVD-ROM, a CD-ROM, a hard disk, etc. If necessary, it can be used by being acquired and activated by a computer via a communication line. And by making a computer perform each procedure, the computer can be functioned as a song assistance apparatus described in claim 1.

実施形態における歌唱補助装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the song assistance apparatus in embodiment. 歌唱補助装置の制御部が実行するカラオケ演奏処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the karaoke performance process which the control part of a song assistance apparatus performs. 歌唱補助装置の制御部が実行する楽器音強調処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the instrument sound enhancement process which the control part of a song assistance apparatus performs. 楽器音強調処理において、対象楽器音を設定する方法の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the method of setting object musical instrument sound in musical instrument sound emphasis processing. 楽器音強調処理において、対象楽器音を設定する方法の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the method of setting object musical instrument sound in musical instrument sound emphasis processing.

以下に本発明の実施形態を図面と共に説明する。
〈歌唱補助装置の構成について〉
本実施形態の歌唱補助装置は、楽曲の楽譜を表す楽曲データに基づいて演奏される楽曲において、当該楽曲の歌詞に対して歌唱者が発声を開始すべきタイミングである歌出開始タイミングを、歌唱者に認識させるものであり、図1に示すカラオケ装置10によって構成されている。
Embodiments of the present invention will be described below with reference to the drawings.
<Configuration of singing assistance device>
The singing auxiliary device according to the present embodiment is configured to sing a singing start timing, which is a timing at which a singer should start speaking with respect to the lyrics of the tune in the music played based on the music data representing the music score. It recognizes a person and is comprised by the karaoke apparatus 10 shown in FIG.

図1に示すように、カラオケ装置10は、入力受付部11と、表示部12と、音声入力部13と、音声出力部14と、音源モジュール15と、記憶部16と、制御部20とを備えている。   As shown in FIG. 1, the karaoke apparatus 10 includes an input reception unit 11, a display unit 12, a voice input unit 13, a voice output unit 14, a sound source module 15, a storage unit 16, and a control unit 20. I have.

このうち、入力受付部11は、外部からの操作に従って情報や指令の入力を受け付ける入力機器(例えば、リモコンから情報を受け付ける機器や、機械的なキーから情報を受け付ける機器)である。表示部12は、画像を表示する表示装置(例えば、液晶ディスプレイやCRT等)である。また、音声入力部13は、音声を電気信号に変換して制御部20に入力する装置(いわゆるマイクロホン)である。音声出力部14は、制御部20からの電気信号を音声に変換して出力する装置(いわゆるスピーカ)である。   Among these, the input receiving unit 11 is an input device (for example, a device that receives information from a remote controller or a device that receives information from a mechanical key) that receives input of information and commands in accordance with an external operation. The display unit 12 is a display device (for example, a liquid crystal display or a CRT) that displays an image. The voice input unit 13 is a device (so-called microphone) that converts voice into an electrical signal and inputs the signal to the control unit 20. The audio output unit 14 is a device (so-called speaker) that converts an electrical signal from the control unit 20 into audio and outputs the audio.

さらに、音源モジュール15は、楽曲の楽譜を表す演奏データに基づいて、予め登録された楽器(以下、模擬楽器とする)の楽器音を模擬した音(以下、特定音とする)を出力する装置であり、本実施形態では、周知のMIDI(Musical Instrument Digital Interface)音源によって構成されている。一般的に、模擬楽器には、鍵盤楽器(例えば、ピアノやパイプオルガンなど)、弦楽器(例えば、バイオリンやビオラ、ギター、琴など)、打楽器(例えば、ドラムやシンバル、ティンパニー、木琴など)、及び管楽器(例えば、クラリネットやトランペット、フルート、尺八など)が少なくとも含まれている。   Furthermore, the tone generator module 15 outputs a sound (hereinafter referred to as a specific sound) that simulates a musical instrument sound of a pre-registered instrument (hereinafter referred to as a simulated instrument) based on performance data representing the musical score of the music. In this embodiment, the sound source is constituted by a well-known MIDI (Musical Instrument Digital Interface) sound source. Generally, simulated musical instruments include keyboard instruments (eg, piano and pipe organ), stringed instruments (eg, violin, viola, guitar, koto), percussion instruments (eg, drums, cymbals, timpani, xylophone, etc.), and Wind instruments (eg, clarinet, trumpet, flute, shakuhachi, etc.) are included at least.

また、記憶部16は、記憶内容を読み書き可能に構成された不揮発性の記憶装置(例えば、ハードディスク装置)である。この記憶部16には、処理プログラムや楽曲データが少なくとも格納されている。   The storage unit 16 is a non-volatile storage device (for example, a hard disk device) configured to be able to read and write stored contents. The storage unit 16 stores at least processing programs and music data.

〈楽曲データの構造について〉
次に、楽曲データは、周知のMIDI規格によって表されたデータであり、予め制作された楽曲毎に用意されている。この楽曲データは、当該楽曲データに対応する楽曲(以下、対応楽曲とする)を区別するデータである識別データと、対応楽曲の楽譜を表すデータである楽譜データと、対応楽曲の歌詞を表すデータである歌詞データとを少なくとも有している。
<About the structure of music data>
Next, the music data is data represented by a well-known MIDI standard, and is prepared for each music produced in advance. The music data includes identification data that is data for distinguishing music corresponding to the music data (hereinafter referred to as corresponding music), musical score data that is data representing the music score of the corresponding music, and data representing the lyrics of the corresponding music. And at least lyric data.

このうち、楽譜データは、対応楽曲にて演奏される楽器の種類毎に用意され、音源モジュール15が出力する音の内容を表す音符が時間軸に沿って羅列されている。以下、楽譜データの音符に従って、音源モジュール15が出力する音を特定音NOと称す
具体的に言うと、各楽譜データは、音源モジュール15が特定音NOkそれぞれを出力する期間(いわゆる音符長)、各特定音NOkの音高(いわゆるノートオンナンバー)NNk、及び特定音NOkの強さを表すパラメータ(いわゆるアタック、ベロシティ、ディケイ、リリースレベルなど)が含まれている。
Among these, the musical score data is prepared for each type of musical instrument played with the corresponding music piece, and notes representing the contents of the sound output from the sound module 15 are arranged along the time axis. Hereinafter, the sound output from the tone generator module 15 is referred to as a specific sound NO according to the notes of the score data. Specifically speaking, each score data is a period (so-called note length) during which the sound source module 15 outputs each specific sound NO k. Further, the pitch (so-called note-on number) NN k of each specific sound NO k and parameters (so-called attack, velocity, decay, release level, etc.) indicating the strength of the specific sound NO k are included.

このうち、特定音NOkを出力する期間は、音源モジュール15が当該特定音NOkの出力を開始するまでの対応楽曲の演奏開始からの時刻を表す発音タイミング(いわゆるノートオンタイミング)ONkと、当該特定音NOkの出力を終了するまでの対応楽曲の演奏開始からの時刻を表す終了タイミング(いわゆるノートオフタイミング)OFFkとによって規定されている。 Among these, the period for outputting the specific sound NO k is the sound generation timing (so-called note-on timing) ON k indicating the time from the start of the performance of the corresponding music until the sound module 15 starts outputting the specific sound NO k. , And an end timing (so-called note-off timing) OFF k representing the time from the start of the performance of the corresponding music until the output of the specific sound NO k is ended.

なお、本実施形態では、複数の楽譜データのうち、対応楽曲において歌唱されるべき旋律(以下、基準旋律とする)を構成する特定音(以下、構成音とする)NOgkの音符を羅列した楽譜データをガイドメロディと称す。 In the present embodiment, the notes of specific sounds (hereinafter referred to as constituent sounds) NOg k constituting the melody (hereinafter referred to as reference melody) to be sung in the corresponding music are listed among a plurality of score data. The score data is called a guide melody.

また、本実施形態において、添え字kは、特定音NOkが対応楽曲の演奏開始から何番目に出力されるものであるかを表すインデックス番号である。
〈制御部の構成について〉
次に、制御部20は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納するROM21と、処理プログラムやデータを一時的に格納するRAM22と、ROM21やRAM22に記憶された処理プログラムに従って各処理(各種演算)を実行するCPU23とを少なくとも有した周知のコンピュータを中心に構成されている。
Further, in the present embodiment, the subscript k is an index number that indicates what number the specific sound NO k is output from the start of the performance of the corresponding music piece.
<Configuration of control unit>
Next, the control unit 20 stores the ROM 21 that stores processing programs and data that need to retain stored contents even when the power is turned off, the RAM 22 that temporarily stores processing programs and data, and the ROM 21 and the RAM 22 that store them. A known computer having at least a CPU 23 that executes each process (various operations) according to the processed program is configured.

なお、本実施形態では、制御部20が実行する処理プログラムとして、楽曲データに基づいて対応楽曲を演奏すると共に、その演奏された対応楽曲の歌出開始タイミングから、歌唱者が発声したタイミング(以下、発声タイミング)がズレていれば、特定条件を満たす特定音NOを強調して出力させるものが、予め用意されている。以下、この処理プログラムにて実行される処理をカラオケ演奏処理と称す。   In the present embodiment, as a processing program executed by the control unit 20, the corresponding music is played based on the music data, and the timing at which the singer utters from the singing start timing of the played corresponding music (hereinafter referred to as the song). If the utterance timing is misaligned, a specific sound NO that satisfies the specific condition is output in advance. Hereinafter, processing executed by this processing program is referred to as karaoke performance processing.

〈カラオケ演奏処理の処理内容について〉
次に、カラオケ装置10の制御部20が実行するカラオケ演奏処理について説明する。
このカラオケ演奏処理は、入力受付部11を介して、本カラオケ演奏処理を起動するための起動指令が入力されると、実行を開始するものである。
<About the contents of karaoke performance processing>
Next, the karaoke performance process which the control part 20 of the karaoke apparatus 10 performs is demonstrated.
This karaoke performance process starts when an activation command for activating this karaoke performance process is input via the input receiving unit 11.

そして、図2に示すように、カラオケ演奏処理は、起動されると、入力受付部11を介して入力された情報によって指定される楽曲に対応する楽曲データ、即ち、歌詞データ及び各模擬楽器についての楽譜データを取得する(S110)。その取得した楽曲データに含まれている各楽譜データに基づいて、構成音NOgk及び各楽譜データに規定された特定音NOk(即ち、楽音)を音源モジュール15に出力させる。これと共に、楽曲データに含まれている歌詞データに基づいて、音源モジュール15から出力される構成音NOgkに対応する歌詞を表示部12に表示させる(S120)。 Then, as shown in FIG. 2, when the karaoke performance process is started, the music data corresponding to the music specified by the information input via the input receiving unit 11, that is, the lyrics data and each simulated musical instrument. Is obtained (S110). Based on each score data included in the acquired music data, the tone generator module 15 is made to output the constituent sounds NOg k and the specific sounds NO k (ie, musical sounds) defined in each score data. At the same time, based on the lyric data included in the music data to be displayed on the display unit 12 the lyrics corresponding to the configuration sound NOG k outputted from the sound source module 15 (S120).

この音源モジュール15から出力された構成音NOgkに対して、歌唱者が発声した音(以下、歌唱音とする)が、音声入力部13を介して入力され、その入力された歌唱音を増幅して音声出力部14から出力する。そして、時間の進行に従って対応楽曲の演奏が進むと、上述した歌出開始タイミングに合致する発音タイミングONgkを有した構成音NOgkが音源モジュール15から出力される。なお、本実施形態では、歌出開始タイミングとして、歌詞を構成する1つの句における最初の音節が規定されている。 A sound uttered by the singer (hereinafter referred to as a singing sound) is input to the constituent sound NOg k output from the sound source module 15 via the voice input unit 13, and the input singing sound is amplified. And output from the audio output unit 14. Then, when the performance of the corresponding music progresses as time progresses, the tone generator module 15 outputs the component sound NOg k having the sound generation timing ONg k that matches the singing start timing described above. In the present embodiment, the first syllable in one phrase constituting the lyrics is defined as the singing start timing.

このような構成音NOgkが音源モジュール15から出力されるとき、当該構成音NOgkの発音タイミング(以下、特定タイミングとする)ONgkと、当該構成音NOgkに対する歌唱音の発声タイミングとを対比して、特定タイミングONgkと歌唱音の発声タイミングとの時間差(以下、ズレ時間とする)を導出する(S130)。具体的に、本実施形態における歌唱音の発声タイミングは、音声入力部13を介して入力された歌唱音の信号レベルが、予め規定された規定レベル未満から規定レベル以上へと変化したタイミングである。 When such a configuration sound NOG k is output from the sound source module 15, sound generation timing of the component tones NOG k (hereinafter, specific and timing) Ong k, and utterance timings of singing sound with respect to the component notes NOG k In contrast, a time difference between the specific timing ONg k and the vocalization timing of the singing sound (hereinafter, referred to as a deviation time) is derived (S130). Specifically, the utterance timing of the singing sound in the present embodiment is a timing at which the signal level of the singing sound input via the voice input unit 13 changes from less than a prescribed level to a prescribed level or more. .

続いて、S130にて導出されたズレ時間が、予め規定された時間長である規定時間以上であれば(S140:YES)、楽器音強調処理を実行する(S150)。この楽器音強調処理は、少なくとも対応楽曲において特定タイミングONgk以降に出力される構成音(以下、特別構成音)NOdの発音タイミングONdと同じタイミングとみなせる発音タイミングONが規定された特定音NOを、上述した特定条件を満たす特定音NO(以下、対象楽器音NOtとする)とし、その対象楽器音NOtが音源モジュール15から強調して出力されるように対象楽器音NOtに対して制御を実行する処理である。その後、S120へと戻る。 Subsequently, if the deviation time derived in S130 is equal to or longer than a prescribed time which is a prescribed time length (S140: YES), instrument sound enhancement processing is executed (S150). This instrument sound emphasizing process is performed at least for a specific sound NO in which a sound generation timing ON that can be regarded as the same as the sound generation timing ONd of the component sound (hereinafter referred to as a special component sound) NOd output after the specific timing ONg k in the corresponding music piece. The target instrument sound NOt is controlled so that the target instrument sound NOt is output from the sound source module 15 with the specific sound NO (hereinafter referred to as the target instrument sound NOt) satisfying the above-described specific conditions. It is processing to do. Thereafter, the process returns to S120.

一方、ズレ時間が規定時間未満であれば(S140:NO)、楽器音強調処理を実行することなく、S120へと戻る。
これらのように、S120へと戻ると、対応楽曲について新たな楽音(即ち、構成音NOg及び特定音NO)を音源モジュール15に出力させる。
On the other hand, if the time difference is less than the specified time (S140: NO), the process returns to S120 without executing the instrument sound enhancement process.
As described above, when the process returns to S120, the tone generator module 15 is caused to output new musical sounds (that is, the constituent sound NOg and the specific sound NO) for the corresponding music.

そして、S110にて取得された楽曲データが終了するか、または入力受付部11を介して本カラオケ演奏処理を終了するための終了指令が入力されるまで、S120からS150のステップを繰り返し実行する。   Then, the steps from S120 to S150 are repeatedly executed until the music data acquired in S110 ends or an end command for ending the karaoke performance process is input via the input receiving unit 11.

〈楽器音強調処理の処理内容について〉
次に、カラオケ演奏処理のS150にて起動される楽器音強調処理について説明する。
図3に示すように、この楽器音強調処理は、起動されると、先のS130にて導出されたズレ時間が、予め設定された時間長である設定時間(ただし、設定時間>規定時間)以上であるか否かを判定する(S510)。
<Processing details of instrument sound enhancement processing>
Next, the instrument sound enhancement process started in S150 of the karaoke performance process will be described.
As shown in FIG. 3, when the instrument sound enhancement process is started, the deviation time derived in S130 is a preset time (however, the preset time> the prescribed time). It is determined whether or not this is the case (S510).

このS510での判定の結果、ズレ時間が設定時間以上であれば(S510:YES)、特定タイミングONgk以降に出力される全ての構成音NOgを、特別構成音NOdとして設定する(S520)。一方、S510での判定の結果、ズレ時間が設定時間未満であれば(S510:NO)、特定タイミングONgk以降に出力される構成音NOgのうち、歌出開始タイミングに合致する発音タイミングONgkが規定された構成音NOgを特別構成音NOdとして設定する(S530)。すなわち、ズレ時間が長いほど、歌唱者が、歌出開始タイミングに発声タイミングを一致させて歌唱することができないものと判断して、特別構成音NOdの個数を多くしている。 A result of the determination in this S510, if the shift time is the set time or more (S510: YES), all the component notes NOg output after a certain timing Ong k, is set as a special component sounds NOD (S520). On the other hand, if the deviation time is less than the set time as a result of the determination in S510 (S510: NO), among the constituent sounds NOg output after the specific timing ONg k, the sound generation timing ONg k that matches the singing start timing. Is set as a special component sound NOd (S530). That is, the longer the time difference is, the more the singers determine that they cannot sing with the utterance timing matched with the singing start timing, and the number of special component sounds NOd is increased.

続いて、特別構成音NOdが特定タイミングONgkから何番目に出力されるものであるかを表すインデックス番号Nを、初期値(本実施形態では、1)に設定する(S540)。そして、対応楽曲のリズムを刻む楽器(例えば、ドラム)に対応する特定音NOrLのうち、特別構成音NOdNの発音タイミング(以下、特別タイミング)ONdNから、特別タイミングONdNと同じタイミングとみなせる期間として予め規定された特別時間A(本実施形態では、50[msec])以内に発音タイミングONrLとなる特定音NOrLの有無を判定する(S550)。なお、本実施形態において、符合rは、当該特定音NOrがリズムを刻む楽器に対応するものであることを意味し、添え字Lは、当該特定音NOrが対応楽曲の演奏開始から何番目に出力されるものであるかを表すインデックス番号を意味する。 Subsequently, an index number N indicating what number the special component sound NOd is output from the specific timing ONg k is set to an initial value (1 in the present embodiment) (S540). The instrument rhythmic corresponding music (e.g., a drum) of the specific sound NOR L corresponding to, sound generation timing of the special configuration sound NOD N (hereinafter, a special timing) from OND N, the same timing as the particular timing OND N The presence / absence of the specific sound NOr L that becomes the sound generation timing ONr L within a special time A (50 [msec] in the present embodiment) defined in advance as a period that can be regarded is determined (S550). In the present embodiment, the symbol r means that the specific sound NOr corresponds to a musical instrument in which the rhythm is engraved, and the subscript L is the order from which the specific sound NOr starts playing the corresponding music. It means an index number that indicates whether it is output.

そして、S550での判定の結果、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる特定音NOrLがあれば(S550:YES)、当該特定音NOrLを対象楽器音NOtNとして設定する(S560)。一方、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる特定音NOrLがなければ(S550:NO)、対応楽曲の旋律を演奏する楽器(例えば、ベース)に対応する特定音NOmMのうち、特別タイミングONdNから特別時間A以内に発音タイミングONmMとなる特定音NOmMの有無を判定する(S570)。なお、本実施形態において、符合mは、当該特定音NOmが旋律を演奏する楽器に対応するものであることを意味し、添え字Mは、当該特定音NOmが対応楽曲の演奏開始から何番目に出力されるものであるかを表すインデックス番号を意味する。 As a result of the determination in S550, if there is a specific sound NOr L having the sound generation timing ONr L within the special time A from the special timing ONd N (S550: YES), the specific sound NOr L is set as the target instrument sound NOt N. Setting is made (S560). On the other hand, if there is no specific sound NOr L that becomes the sound generation timing ONr L within the special time A from the special timing ONd N (S550: NO), the specific sound NOm corresponding to the instrument (for example, bass) playing the melody of the corresponding music piece. of M, it determines the presence or absence of specific sound NOM M as the sound generation timing onm M from a special timing OND N within the special time a (S570). In the present embodiment, the symbol m means that the specific sound NOm corresponds to a musical instrument that plays a melody, and the subscript M indicates the number of the specific sound NOm from the start of performance of the corresponding music. This means an index number that indicates whether the data is output to.

そして、S570での判定の結果、特別タイミングONdNから特別時間A以内に発音タイミングONmMとなる特定音NOmMが存在していれば(S570:YES)、当該特定音NOmMを対象楽器音NOtNとして設定する(S580)。一方、S570での判定の結果、特別タイミングONdNから特別時間A以内に発音タイミングONmMとなる特定音NOmMがなければ(S570:NO)、対応楽曲のリズムを刻む楽器(例えば、ドラム)に対応する特定音NOrを対象楽器音NOtNとして、新たに追加する(S590)。 As a result of the determination in S570, if the specific sound NOm M having the sound generation timing ONm M exists within the special time A from the special timing ONd N (S570: YES), the specific sound NOm M is used as the target instrument sound. It is set as NOt N (S580). On the other hand, as a result of the determination in S570, if there is no specific sound NOm M that becomes the sound generation timing ONm M within the special time A from the special timing ONd N (S570: NO), an instrument that engraves the rhythm of the corresponding music (for example, drum) the specific sound NOr corresponding targeting instrument sound NOt N, newly added to (S590).

なお、本実施形態のS590にて新たに追加される当該対象楽器音NOtNの発音タイミングONtNは、特別タイミングONdNにて、対象楽器音NOtNが出力されるように、特別タイミングONdNに設定される。 Note that the sound generation timing ONt N of the target musical instrument sound NOt N newly added in S590 of the present embodiment is the special timing ONd N so that the target musical instrument sound NOt N is output at the special timing ONd N. Set to

このようにして、特別構成音NOdNに対応する対象楽器音NOtNが設定されると、その対象楽器音NOtNが強調して出力されるように、当該対象楽器音NOtNのパラメータを設定する(S600)。具体的には、本実施形態のS600では、対象楽器音NOtNが、対応楽曲のリズムを刻む楽器に対応する特定音NOrLであれば、先のS130にて導出したズレ時間が長いほど、当該対象楽器音NOtNの音量が大きくなるように、当該特定音NOrLのベロシティが設定される。一方、対象楽器音NOtNが、対応楽曲の旋律を演奏する楽器に対応する特定音NOmMであれば、ズレ時間が長いほど、特別タイミングONdNで、当該対象楽器音NOtNの音量が大きくなるように、当該対象楽器音NOtNのアタック、ディケイ、ベロシティが設定される。これと共に、当該対象楽器音NOtNの発音期間中における全体の音量が低下するようにリリースレベルを低下させる。なお、特定音NOrLが出力されている期間は、特別構成音NOdNに比べて短時間であるため、特定音NOrLに基づいて設定された対象楽器音NOtNでは、ベロシティのみが設定される。 In this way, the target instrument sound NOt N corresponding to the particular constituent notes NOD N is set, as the target instrument sound NOt N are emphasized and output, setting the parameters of the target instrument sound NOt N (S600). Specifically, in S600 of the present embodiment, if the target instrument sound NOt N is the specific sound NOr L corresponding to the instrument that engraves the rhythm of the corresponding music, the longer the deviation time derived in S130, The velocity of the specific sound NOr L is set so that the volume of the target musical instrument sound NOt N is increased. On the other hand, if the target instrument sound NOt N is the specific sound NOm M corresponding to the instrument that plays the melody of the corresponding music piece, the volume of the target instrument sound NOt N increases with the special timing ONd N as the deviation time increases. Thus, the attack, decay, and velocity of the target musical instrument sound NOt N are set. At the same time, the release level is lowered so that the overall volume during the sounding period of the target musical instrument sound NOt N is lowered. Since the period during which the specific sound NOr L is output is shorter than the special component sound NOd N , only the velocity is set in the target musical instrument sound NOt N set based on the specific sound NOr L. The

続いて、特別構成音NOdのインデックス番号Nが、最大値Nmax以上であるか否かを判定する(S610)。そして、S610での判定の結果、特別構成音NOdのインデックス番号Nが最大値Nmaxに達していなければ(S610:NO)、特別構成音NOdのインデックス番号Nを1つインクリメントして、S550へと戻る。一方、特別構成音NOdのインデックス番号Nが最大値Nmaxに達すると(S610:YES)、本楽器音強調処理を終了して、カラオケ演奏処理へと戻る。すなわち、全ての特別構成音NOdに対応する対象楽器音NOtNが設定されると共に、それらの対象楽器音NOtNが強調して出力されるように、当該対象楽器音NOtNのパラメータが設定されると、本楽器音強調処理を終了する。 Subsequently, it is determined whether or not the index number N of the special component sound NOd is greater than or equal to the maximum value Nmax (S610). As a result of the determination in S610, if the index number N of the special component sound NOd has not reached the maximum value Nmax (S610: NO), the index number N of the special component sound NOd is incremented by 1, and the process proceeds to S550. Return. On the other hand, when the index number N of the special component sound NOd reaches the maximum value Nmax (S610: YES), the instrument sound enhancement process is terminated and the process returns to the karaoke performance process. That, along with all of the target instrument sound NOt N corresponding to the particular component notes NOd is set, so that their target instrument sound NOt N are emphasized and output, the parameters of the target instrument sound NOt N is set Then, the instrument sound enhancement process is terminated.

つまり、本実施形態の楽器音強調処理では、リズムを刻む楽器に対する楽譜データ中に、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる特定音NOrLがあれば、図4に示すように、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる全ての特定音NOrLを対象楽器音NOtNとしている。一方、リズムを刻む楽器に対する楽譜データ中に、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる特定音NOrLがなければ、図5に示すように、特別タイミングONdNから特別時間A以内に発音タイミングONrLとなる特定音NOrを、新たに追加して当該楽譜データを更新している。 That is, in the musical instrument sound emphasizing process according to the present embodiment, if there is a specific sound NOr L that becomes the sounding timing ONr L within the special time A from the special timing ONd N in the musical score data for the rhythmic musical instrument, it is shown in FIG. As described above, all the specific sounds NOr L having the sound generation timing ONr L within the special time A from the special timing ONd N are set as the target musical instrument sound NOt N. On the other hand, in the musical score data for instruments rhythmic, if there is no specific sound NOR L as the sound generation timing ONr L from a special timing OND N within the special time A, as shown in FIG. 5, the special time from a special timing OND N Within A, a specific sound NOr having a pronunciation timing ONr L is newly added to update the musical score data.

そして、楽器音強調処理が実行された後に実行されるカラオケ演奏処理において、時間の進行に従って対応楽曲の演奏が進むと、対象楽器音NOtNが他の特定音NOよりも大きな音量にて出力される。 Then, in the karaoke performance process executed after the instrument sound enhancement process is executed, when the performance of the corresponding music advances with the progress of time, the target instrument sound NOt N is output at a louder volume than the other specific sounds NO. The

[実施形態の効果]
以上説明したように、本実施形態のカラオケ装置10によれば、特別タイミングONdNに対象楽器音NOtNが強調して出力されるため、特別タイミングONdNを、聴覚のみを用いて、歌唱者に認識させることができる。
[Effect of the embodiment]
As described above, according to the karaoke device 10 of the present embodiment, since the special timing OND N to target instrument sound NOt N are emphasized and output, the special timing OND N, using the auditory only, singer Can be recognized.

特に、本実施形態のカラオケ装置10によれば、全ての特別タイミングONdNにて、対象楽器音の音量が大きくなるため、特別タイミングONdNをより確実に歌唱者に認識させることができる。しかも、カラオケ装置10では、対象楽器音NOtNを、対応楽曲のリズムを刻む楽器に対応する特定音NOrLを中心に設定しているため、歌唱者に、対応楽曲のリズムを認識させやすく、結果として、特別タイミングONdNを容易に認識させることができる。 In particular, according to the karaoke device 10 of the present embodiment, in all the special timing OND N, since the volume of the target instrument sound is increased, it is possible to recognize the singer special timing OND N more reliably. Moreover, in the karaoke apparatus 10, since the target instrument sound NOt N is set centering on the specific sound NOr L corresponding to the instrument that engraves the rhythm of the corresponding music, it is easy for the singer to recognize the rhythm of the corresponding music. as a result, it is possible to easily recognize the special timing OND N.

つまり、従来(例えば、特許文献1に記載)のカラオケ装置に比べて、特別タイミングONdNを認識するための情報を、視覚情報及び聴覚情報の2つから、聴覚情報の1つに減少することができ、対応楽曲を、より歌唱しやすいものとすることができる。この結果、本実施形態のカラオケ装置10を用いることで、歌唱が下手な歌唱者であっても、発声タイミングを特別タイミングONdNに容易に一致させて歌唱することができる。 That is, the information for recognizing the special timing ONd N is reduced from the visual information and the auditory information to one of the auditory information as compared with the conventional karaoke apparatus (for example, described in Patent Document 1). The corresponding music can be made easier to sing. As a result, by using the karaoke system 10 of the present embodiment, singing is even an unskilled singer, may be singing readily to match the utterance timing special timing OND N.

特に、本実施形態のカラオケ装置10では、ズレ時間が長いほど、特別構成音NOdNとして設定される構成音NOgkの数が多くなると共に、対象楽器音NOtNの音量が大きくなる。このため、対応楽曲の時間軸に沿った進行に従って、強調して出力される特定音NO(即ち、対象楽器音NOtN)の数が減少していれば、発声タイミングを特別タイミングONdN一致させて発声できていることを、歌唱者自身に認識させることができる。 In particular, in the karaoke apparatus 10 of the present embodiment, the longer the deviation time, the greater the number of component sounds NOg k set as the special component sound NOd N , and the volume of the target instrument sound NOt N increases. For this reason, if the number of specific sounds NO that are emphasized and output (that is, the target musical instrument sound NOt N ) decreases as the corresponding music progresses along the time axis, the utterance timing is made to coincide with the special timing ONd N. The singers themselves can recognize that they are able to speak.

[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記実施形態のカラオケ装置10では、歌詞を構成する1つの句における最初の音節を歌出開始タイミングとして規定していたが、歌出開始タイミングは、これに限るものではなく、対応楽曲において曲調が変化するタイミングであっても良い。   For example, in the karaoke apparatus 10 of the above-described embodiment, the first syllable in one phrase constituting the lyrics is defined as the singing start timing, but the singing start timing is not limited to this, and in the corresponding music piece It may be the timing at which the tune changes.

また、上記実施形態のカラオケ演奏処理では、楽器音強調処理の実行を開始するタイミングを、対応楽曲が演奏されている際に、当該対応楽曲の歌出開始タイミングに対するズレ時間が規定時間以上となるタイミングとしていたが、楽器音強調処理の実行を開始するタイミングは、これに限るものではない。例えば、対応楽曲が1曲演奏された後に、当該対応楽曲の全ての歌出開始タイミングに対するズレ時間の平均が規定時間以上となった場合には、入力受付部11を介して次に演奏する楽曲として指定された対応楽曲の演奏開始時点を、楽器音強調処理の実行を開始するタイミングとしても良い。   Moreover, in the karaoke performance process of the said embodiment, when the corresponding music is played, the time for starting the execution of the instrument sound emphasizing process is greater than the specified time when the corresponding music is started to be played. Although the timing is used, the timing for starting the execution of the instrument sound enhancement process is not limited to this. For example, after a corresponding piece of music is played, if the average deviation time with respect to all the singing start timings of the corresponding piece is equal to or longer than a specified time, the next piece to be played via the input reception unit 11 The start time of the performance of the corresponding music designated as may be set as the timing for starting the execution of the instrument sound enhancement process.

この場合、ズレ時間を導出する方法は、例えば、歌唱音の音高が推移した軌跡(以下、歌唱音高推移とする)を、対応楽曲の基準旋律での構成音の音高が推移した軌跡(以下、基準音高推移とする)と対比するものでも良い。つまり、歌唱音高推移を基準音高推移に対して時間軸に沿って前後にシフトさせ、歌唱音高推移が基準音高推移に対して最も近似する(近似度が最大となる)シフト量を、ズレ時間として導出しても良い。このとき、歌唱音高推移と基準音高推移とが近似するように時間軸上の位置を修正する方法としては、例えば、特開2005−107330号公報に記載されている方法を用いることが考えられる。   In this case, the method for deriving the deviation time is, for example, a trajectory in which the pitch of the singing sound has changed (hereinafter referred to as singing pitch change), and a pitch in which the pitch of the constituent sound in the reference melody of the corresponding music has changed. It may be contrasted with (hereinafter referred to as reference pitch transition). That is, the singing pitch transition is shifted back and forth along the time axis with respect to the reference pitch transition, and the singing pitch transition is the closest approximation to the reference pitch transition (the degree of approximation is maximized). , It may be derived as a deviation time. At this time, as a method of correcting the position on the time axis so that the singing pitch transition and the reference pitch transition are approximated, for example, a method described in JP-A-2005-107330 may be used. It is done.

なお、上記実施形態のカラオケ演奏処理では、対象楽器音NOtNの音量を大きくすることで、対象楽器音NOtNを強調していたが、対象楽器音NOtNを強調する方法は、これに限るものではない。例えば、対象楽器音NOtNとして設定された特定音NO以外の特定音NOの音量を抑制することで、対象楽器音NOtNを強調しても良い。 In the karaoke performance process of the above embodiments, by increasing the volume of the target instrument sound NOt N, but highlights the target instrument sound NOt N, the method emphasizing target instrument sound NOt N is limited thereto It is not a thing. For example, by suppressing the volume of the specific sound NO other than the specific sound NO which is set as the target instrument sound NOt N, it may be emphasized target instrument sound NOt N.

また、上記実施形態のカラオケ演奏処理では、対象楽器音NOtNとして新たな特定音NOを挿入する条件を、特別構成音NOdNから特別時間A以内に発音タイミングONとなる「リズム楽器の特定音NOr」及び「音程楽器の特定音NOm」の両方が存在しない場合(すなわち、S550:NO、かつS570:NO)としていたが、対象楽器音NOtNとして新たな特定音NOを挿入する条件は、これに限るものではなく、特別構成音NOdNから特別時間A以内に発音タイミングONとなる「リズム楽器の特定音NOr」のみが存在しない場合であっても良い。すなわち、楽器音強調処理において、S570及びS580は省略されていても良い。 In the karaoke performance processing of the above embodiment, the condition for inserting a new specific sound NO as the target musical instrument sound NOt N is set as “the specific sound of the rhythm instrument whose sounding timing is ON within the special time A from the special component sound NOd N ”. “NOr” and “specific musical instrument specific sound NOm” are both absent (ie, S550: NO and S570: NO). The condition for inserting a new specific sound NO as the target musical instrument sound NOt N is as follows: The present invention is not limited to this, and there may be a case where only the “specific sound NOr of the rhythm instrument” whose sound generation timing is ON within the special time A from the special component sound NOd N does not exist. In other words, S570 and S580 may be omitted in the instrument sound enhancement process.

上記実施形態のカラオケ装置10では、楽曲データは、予め記憶部16に記憶されていたが、カラオケ装置10において、楽曲データは、公衆通信網を介して外部から取得しても良い。すなわち、上記実施形態のカラオケ装置10は、いわゆる通信カラオケ装置として構成されていても良い。   In the karaoke apparatus 10 of the above embodiment, the music data is stored in the storage unit 16 in advance. However, in the karaoke apparatus 10, the music data may be acquired from the outside via a public communication network. That is, the karaoke apparatus 10 of the above embodiment may be configured as a so-called communication karaoke apparatus.

上記実施形態における歌唱補助装置は、カラオケ装置10として構成されていたが、本発明の歌唱補助装置は、カラオケ装置10に限るものではなく、例えば、上述した入力受付部11と、表示部12と、音声入力部13と、音声出力部14と、音源モジュール15と、記憶部16と、制御部20とを備えた情報処理装置(いわゆるパーソナルコンピュータ)として構成されていても良い。   Although the singing assistance apparatus in the said embodiment was comprised as the karaoke apparatus 10, the singing assistance apparatus of this invention is not restricted to the karaoke apparatus 10, For example, the input reception part 11 mentioned above, the display part 12, and The information processing device (so-called personal computer) including the voice input unit 13, the voice output unit 14, the sound source module 15, the storage unit 16, and the control unit 20 may be used.

[実施形態と特許請求の範囲との対応関係]
最後に、上記実施形態の記載と、特許請求の範囲の記載との関係を説明する。
上記実施形態のカラオケ演奏処理におけるS120を実行することで得られる機能が、本発明の演奏手段に相当し、S130を実行することで得られる機能が、本発明の時間導出手段に相当する。そして、カラオケ演奏処理におけるS140及び楽器音強調処理におけるS510〜S530を実行することで得られる機能が、本発明の特別音設定手段に相当し、楽器音強調処理におけるS550〜S590を実行することで得られる機能が、本発明の対象特定手段に相当する。
[Correspondence between Embodiment and Claims]
Finally, the relationship between the description of the above embodiment and the description of the scope of claims will be described.
The function obtained by executing S120 in the karaoke performance processing of the above embodiment corresponds to the performance means of the present invention, and the function obtained by executing S130 corresponds to the time deriving means of the present invention. And the function obtained by performing S140 in karaoke performance processing and S510-S530 in instrument sound emphasis processing is equivalent to the special sound setting means of the present invention, and by executing S550-S590 in instrument sound emphasis processing. The obtained function corresponds to the object specifying means of the present invention.

さらに、楽器音強調処理におけるS600を実行することで得られる機能が、本発明の強調制御手段に相当する。   Furthermore, the function obtained by executing S600 in the instrument sound enhancement processing corresponds to the enhancement control means of the present invention.

10…カラオケ装置 11…入力受付部 12…表示部 13…音声入力部 14…音声出力部 15…音源モジュール 16…記憶部 16…予め記憶部 20…制御部 21…ROM 22…RAM 23…CPU DESCRIPTION OF SYMBOLS 10 ... Karaoke apparatus 11 ... Input reception part 12 ... Display part 13 ... Audio | voice input part 14 ... Audio | voice output part 15 ... Sound source module 16 ... Memory | storage part 16 ... Memory | storage part 20 ... Control part 21 ... ROM 22 ... RAM 23 ... CPU

Claims (6)

楽曲の楽譜を表し、歌唱されるべき旋律を構成する各構成音を出力する発音タイミング、及び少なくとも一種類の楽器の楽器音を模擬した特定音を出力する出力タイミングが規定された楽曲データに従って、前記楽曲を演奏する演奏手段と、
前記演奏手段での楽曲の演奏中に入力された音声に基づいて、当該演奏中に出力された構成音に対応する発音タイミングである特定タイミングに対する、当該構成音に対して発声が開始されたタイミングである発声タイミングの時間差を表すズレ時間を導出する時間導出手段と、
前記時間導出手段で導出されたズレ時間が、予め規定された時間長である規定時間以上であれば、少なくとも、当該ズレ時間に対応する特定タイミング以降に出力される構成音である特別構成音を設定する特別音設定手段と、
前記特別音設定手段にて設定された各特別構成音の発音タイミングから、当該特別構成音の発音タイミングと同じタイミングとみなせる期間として予め規定された特別時間以内に前記出力タイミングとなる特定音である対象楽器音を特定する対象特定手段と、
前記対象特定手段にて特定された対象楽器音が、当該対象楽器音に対応する特別構成音の発音タイミングにて強調して出力されるように制御する強調制御を実行する強調制御手段と
を備えることを特徴とする歌唱補助装置。
According to the music data that represents the musical score of the music, the sound generation timing for outputting each constituent sound constituting the melody to be sung, and the output timing for outputting the specific sound simulating the instrument sound of at least one instrument, Playing means for playing the music;
Timing at which utterance is started with respect to the constituent sound based on the sound input during the performance of the music by the performance means with respect to a specific timing that is a sounding timing corresponding to the constituent sound output during the performance A time deriving means for deriving a deviation time representing a time difference between the utterance timings,
If the deviation time derived by the time deriving means is equal to or longer than a predetermined time that is a predetermined time length, at least a special component sound that is a component sound output after a specific timing corresponding to the time difference Special sound setting means to set;
It is a specific sound that becomes the output timing within a special time defined in advance as a period that can be regarded as the same timing as the sound generation timing of the special component sound from the sound generation timing of each special component sound set by the special sound setting means A target identifying means for identifying a target instrument sound;
Emphasis control means for performing emphasis control for performing control so that the target instrument sound specified by the target specifying means is emphasized and output at the sound generation timing of the specially configured sound corresponding to the target instrument sound. A singing auxiliary device characterized by that.
前記強調制御手段は、
前記時間導出手段で導出されたズレ時間が長いほど、前記対象楽器音が出力される音量を、当該対象楽器音に対応する特別構成音の発音タイミングにて大きくすることを前記強調制御として実行することを特徴とする請求項1に記載の歌唱補助装置。
The emphasis control means includes
As the shift time derived by the time deriving means is longer, the enhancement control is performed such that the volume at which the target musical instrument sound is output is increased at the sounding timing of the special component sound corresponding to the target musical instrument sound. The singing assistance device according to claim 1.
前記特別音設定手段は、
前記時間導出手段で導出されるズレ時間が長いほど、多くの構成音を前記特別構成音として設定することを特徴とする請求項1または請求項2に記載の歌唱補助装置。
The special sound setting means includes
3. The singing assistance device according to claim 1, wherein the longer the deviation time derived by the time deriving unit, the more the component sounds are set as the special component sounds.
前記対象特定手段は、
前記特別構成音の発音タイミングから前記特別時間以内に出力タイミングとなる特定音が前記楽曲データ中に存在しない場合、前記特別構成音の発音タイミングから前記特別時間以内に出力タイミングとなる特定音を追加し、その追加した特定音を前記対象楽器音として特定することを特徴とする請求項1から請求項3のいずれか一項に記載の歌唱補助装置。
The object specifying means includes
When a specific sound that is output timing within the special time from the sound generation timing of the special component sound does not exist in the music data, a specific sound that is output timing within the special time is added from the sound generation timing of the special component sound And the added specific sound is specified as said object musical instrument sound, The singing assistance apparatus as described in any one of Claims 1-3 characterized by the above-mentioned.
前記対象特定手段は、
前記楽曲において、リズムを刻む楽器の特定音を、前記対象楽器音として特定することを特徴とする請求項1から請求項4のいずれか一項に記載の歌唱補助装置。
The object specifying means includes
5. The singing assistance device according to claim 1, wherein a specific sound of a musical instrument engraved with a rhythm is specified as the target musical instrument sound in the music.
楽曲の楽譜を表し、歌唱されるべき旋律を構成する各構成音を出力する発音タイミング、及び少なくとも一種類の楽器の楽器音を模擬した特定音を時間軸に沿って出力する出力タイミングが規定された楽曲データに従って、前記楽曲を演奏する演奏手順と、
前記演奏手順での楽曲の演奏中に入力された音声に基づいて、当該演奏中に出力された構成音に対応する発音タイミングである特定タイミングに対する、当該構成音に対して発声が開始されたタイミングである発声タイミングの時間差を表すズレ時間を導出する時間導出手順と、
前記時間導出手順で導出されたズレ時間が、予め規定された時間長である規定時間以上であれば、少なくとも、当該ズレ時間に対応する特定タイミング以降に出力される構成音である特別構成音を設定する特別音設定手順と、
前記特別音設定手順にて設定された各特別構成音の発音タイミングから、当該特別構成音の発音タイミングと同じタイミングとみなせる期間として予め規定された特別時間以内に前記出力タイミングとなる特定音である対象楽器音を特定する対象特定手順と、
前記対象特定手順にて特定された対象楽器音が、当該対象楽器音に対応する特別構成音の発音タイミングにて強調して出力されるように制御する強調制御を実行する強調制御手順と
をコンピュータに実行させることを特徴とするプログラム。
Represents the musical score of a musical piece, and it specifies the timing to output each component sound that constitutes the melody to be sung, and the output timing to output a specific sound that simulates the instrument sound of at least one instrument along the time axis According to the music data, a performance procedure for playing the music,
Timing at which utterance is started with respect to the constituent sound with respect to a specific timing which is a sounding timing corresponding to the constituent sound output during the performance based on the sound input during the performance of the music piece in the performance procedure A time derivation procedure for deriving a deviation time representing the time difference between the utterance timings,
If the deviation time derived in the time derivation procedure is equal to or longer than a prescribed time that is a prescribed time length, at least a special constituent sound that is a constituent sound output after a specific timing corresponding to the deviation time. Special sound setting procedure to be set,
It is a specific sound that becomes the output timing within a special time defined in advance as a period that can be regarded as the same timing as the sound generation timing of the special component sound from the sound generation timing of each special component sound set in the special sound setting procedure A target identification procedure for identifying the target instrument sound;
An emphasis control procedure for performing emphasis control for controlling the target instrument sound identified by the target identification procedure to be emphasized and output at the sounding timing of the specially configured sound corresponding to the target instrument sound. A program characterized by being executed.
JP2010081542A 2010-03-31 2010-03-31 Singing assistance device and program Expired - Fee Related JP5287782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010081542A JP5287782B2 (en) 2010-03-31 2010-03-31 Singing assistance device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010081542A JP5287782B2 (en) 2010-03-31 2010-03-31 Singing assistance device and program

Publications (2)

Publication Number Publication Date
JP2011215254A JP2011215254A (en) 2011-10-27
JP5287782B2 true JP5287782B2 (en) 2013-09-11

Family

ID=44945072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010081542A Expired - Fee Related JP5287782B2 (en) 2010-03-31 2010-03-31 Singing assistance device and program

Country Status (1)

Country Link
JP (1) JP5287782B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406182B2 (en) * 2015-09-04 2018-10-17 ブラザー工業株式会社 Karaoke device and karaoke system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6060004U (en) * 1983-09-29 1985-04-26 パイオニア株式会社 karaoke equipment
JP2924208B2 (en) * 1991-01-22 1999-07-26 ブラザー工業株式会社 Electronic music playback device with practice function
JP3141574B2 (en) * 1992-09-25 2001-03-05 ヤマハ株式会社 Automatic performance device
JPH06118978A (en) * 1992-10-02 1994-04-28 Matsushita Electric Ind Co Ltd Karaoke device
JPH0756586A (en) * 1993-08-16 1995-03-03 Kanaasu Data Kk Accompaniment device
JPH1031495A (en) * 1996-07-16 1998-02-03 Nippon Columbia Co Ltd Karaoke device
JP2006308650A (en) * 2005-04-26 2006-11-09 Yamaha Corp Singing support device

Also Published As

Publication number Publication date
JP2011215254A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
JP5598516B2 (en) Voice synthesis system for karaoke and parameter extraction device
JP5287782B2 (en) Singing assistance device and program
JP5782972B2 (en) Information processing system, program
JP5418518B2 (en) Music data correction device
JP5418525B2 (en) Karaoke equipment
JP6075314B2 (en) Program, information processing apparatus, and evaluation method
JP5413380B2 (en) Music data correction device
JP6141737B2 (en) Karaoke device for singing in consideration of stretch tuning
JP2013210501A (en) Synthesis unit registration device, voice synthesis device, and program
JP5418524B2 (en) Music data correction device
JP5810947B2 (en) Speech segment specifying device, speech parameter generating device, and program
JP5983670B2 (en) Program, information processing apparatus, and data generation method
JP5310677B2 (en) Sound source separation apparatus and program
JP6252517B2 (en) Speech synthesizer and program
JP6406182B2 (en) Karaoke device and karaoke system
JP2015184447A (en) Program, information processing unit, and evaluation data generation method
JP5569307B2 (en) Program and editing device
JP6281447B2 (en) Speech synthesis apparatus and speech synthesis system
JP4967170B2 (en) Accompaniment creation system, accompaniment creation method and program
JP5805474B2 (en) Voice evaluation apparatus, voice evaluation method, and program
JP5549651B2 (en) Lyric output data correction device and program
JP4296767B2 (en) Breath sound synthesis method, breath sound synthesis apparatus and program
JP6252408B2 (en) Display control device and display control system
JP5347641B2 (en) Karaoke device and program
JPWO2022190502A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

R150 Certificate of patent or registration of utility model

Ref document number: 5287782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees