JP6617441B2 - Singing voice output control device - Google Patents

Singing voice output control device Download PDF

Info

Publication number
JP6617441B2
JP6617441B2 JP2015114309A JP2015114309A JP6617441B2 JP 6617441 B2 JP6617441 B2 JP 6617441B2 JP 2015114309 A JP2015114309 A JP 2015114309A JP 2015114309 A JP2015114309 A JP 2015114309A JP 6617441 B2 JP6617441 B2 JP 6617441B2
Authority
JP
Japan
Prior art keywords
chord
pronunciation
singing voice
content information
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015114309A
Other languages
Japanese (ja)
Other versions
JP2017003625A (en
Inventor
入山 達也
達也 入山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015114309A priority Critical patent/JP6617441B2/en
Publication of JP2017003625A publication Critical patent/JP2017003625A/en
Application granted granted Critical
Publication of JP6617441B2 publication Critical patent/JP6617441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は歌唱音声出力制御装置に関する。   The present invention relates to a singing voice output control device.

歌唱音声を合成して出力する装置が知られている。例えば、ユーザによって指定された歌詞の歌唱音声を合成して出力する装置が知られている。   Devices that synthesize and output singing voice are known. For example, a device that synthesizes and outputs a singing voice of lyrics specified by a user is known.

例えば、非特許文献1に開示された装置では、鍵盤内の5つの鍵(例えばC2,D2,E2,F2,G2)がそれぞれ母音(a,i,u,e,o)を入力するための鍵として割り当てられている。ユーザが上記5つの鍵を用いて母音列を入力すると、予め登録された複数の歌詞のうちから、母音列に対応する歌詞が選択され、選択された歌詞の歌唱音声が出力されるようになっている。   For example, in the apparatus disclosed in Non-Patent Document 1, five keys (for example, C2, D2, E2, F2, and G2) in a keyboard are used to input vowels (a, i, u, e, o), respectively. Assigned as a key. When the user inputs a vowel string using the above five keys, the lyrics corresponding to the vowel string are selected from a plurality of previously registered lyrics, and the singing voice of the selected lyrics is output. ing.

また例えば、非特許文献2に開示された装置では5個の黒鍵にそれぞれ母音(a,i,u,e,o)が割り当てられ、10個の白鍵にそれぞれ子音(k,s,t,n,h,m,j,r,w,N)が割り当てられている。そして、ユーザが1つの黒鍵と1つの白鍵を押鍵することによって母音及び子音を指定することによって、歌唱音声の歌詞を指定できるようになっている。   For example, in the apparatus disclosed in Non-Patent Document 2, vowels (a, i, u, e, o) are assigned to five black keys, and consonants (k, s, t) are assigned to ten white keys, respectively. , N, h, m, j, r, w, N). The user can designate the lyric of the singing voice by designating a vowel and a consonant by pressing one black key and one white key.

また例えば、特許文献1に開示された装置では、ユーザがタッチパネルに表示される50音ボタンを用いて指定した歌詞の歌唱音声が合成されて出力されるようになっている。   Further, for example, in the apparatus disclosed in Patent Document 1, the singing voice of the lyrics specified by the user using the 50 sound button displayed on the touch panel is synthesized and output.

特開2012−83569号公報JP 2012-83569 A

"Livo" [online] [retrieved on March 10, 2015] Retrieved from the Internet: <URL:http://www.yamo-n.org/livo/>."Livo" [online] [retrieved on March 10, 2015] Retrieved from the Internet: <URL: http: //www.yamo-n.org/livo/>. 「ぼや式」 [online] [retrieved on March 10, 2015] Retrieved from the Internet: <URL:http://nicovideo.jp/watch/nm2283511>.“Boya Shiki” [online] [retrieved on March 10, 2015] Retrieved from the Internet: <URL: http: //nicovideo.jp/watch/nm2283511>.

しかしながら、非特許文献1に開示された装置ではユーザが指定できるのが母音に限られていた。一方、非特許文献2又は特許文献1に開示された装置では、このような制限がないが、これらの装置では、歌詞を指定するための運指が通常の演奏では行われないような運指となるため、ユーザにとって歌詞を指定し難いところがあった。   However, in the device disclosed in Non-Patent Document 1, the user can specify only vowels. On the other hand, in the devices disclosed in Non-Patent Document 2 or Patent Document 1, there is no such limitation, but in these devices, the fingering for specifying the lyrics is not performed in normal performance. Therefore, it was difficult for the user to specify the lyrics.

本発明は上記課題に鑑みてなされたものであって、その目的は、ユーザが歌唱音声の歌詞を指定し易くすることが可能な歌唱音声出力制御装置を提供することにある。   This invention is made | formed in view of the said subject, The objective is to provide the singing voice output control apparatus which can make it easy for a user to specify the lyrics of a singing voice.

上記課題を解決するために、本発明に係る歌唱音声出力制御装置は、第1操作部を用いて入力された和音を示す和音情報を取得する和音情報取得手段と、第2操作部を用いて入力された音高を示す音高情報を取得する音高情報取得手段と、和音情報と、発音内容を示す発音内容情報と、を対応付けてなる対応関係データに基づいて、前記和音情報取得手段によって取得された和音情報に対応付けられた発音内容情報を取得する発音内容情報取得手段と、前記発音内容情報取得手段によって取得される発音内容情報と、前記音高情報取得手段によって取得される音高情報とに基づいて、歌唱音声を出力手段から出力させる歌唱音声出力制御手段と、を含む。   In order to solve the above problems, a singing voice output control device according to the present invention uses chord information acquisition means for acquiring chord information indicating a chord input using the first operation unit, and a second operation unit. The chord information acquisition means based on correspondence data obtained by associating pitch information acquisition means for acquiring pitch information indicating the input pitch, chord information, and pronunciation content information indicating the pronunciation content Pronunciation content information acquisition means for acquiring pronunciation content information associated with the chord information acquired by the voice information, pronunciation content information acquired by the pronunciation content information acquisition means, and sound acquired by the pitch information acquisition means Singing voice output control means for outputting the singing voice from the output means based on the high information.

また、本発明の一態様では、同一の前記和音情報に対して前記発音内容情報取得手段が取得する発音内容情報が変わるようにしてもよい。   Moreover, in one aspect of the present invention, the pronunciation content information acquired by the pronunciation content information acquisition unit may change with respect to the same chord information.

また、本発明の一態様では、前記和音情報に対応付けられる前記発音内容情報を時間経過に応じて変更する対応関係変更手段を含むようにしてもよい。   Further, in one aspect of the present invention, correspondence relationship changing means for changing the pronunciation content information associated with the chord information with the passage of time may be included.

また、本発明の一態様では、前記対応関係変更手段は、入力されるべき和音情報を時系列で示すデータと、発音されるべき発音内容情報を時系列で示すデータとに基づいて、前記和音情報に対応付けられる前記発音内容情報を時間経過に応じて変更するようにしてもよい。   Also, in one aspect of the present invention, the correspondence changing means is configured to use the chords based on data indicating time-sequential chord information to be input and data indicating pronunciation content information to be pronounced in time series. The pronunciation content information associated with the information may be changed over time.

また、本発明の一態様では、前記対応関係データでは、一つの和音情報に対して複数の発音内容情報が対応付けられていてもよい。前記発音内容情報取得手段は、前記和音情報取得手段によって取得される和音情報に複数の発音内容情報が対応付けられている場合に、当該複数の発音内容情報のうちのいずれかを選択するようにしてもよい。   In one aspect of the present invention, in the correspondence data, a plurality of pronunciation content information may be associated with one chord information. The pronunciation content information acquisition unit selects one of the plurality of pronunciation content information when a plurality of pronunciation content information is associated with the chord information acquired by the chord information acquisition unit. May be.

また、本発明の一態様では、前記発音内容情報取得手段は、前記複数の発音内容情報の選択履歴を示す選択履歴データに基づいて、前記複数の発音内容情報のうちのいずれかを選択するようにしてもよい。   In one aspect of the present invention, the pronunciation content information acquisition unit selects any one of the plurality of pronunciation content information based on selection history data indicating a selection history of the plurality of pronunciation content information. It may be.

また、本発明の一態様では、新たな発音内容情報の登録を受け付ける手段と、前記新たな発音内容情報をいずれの前記和音情報に対応付けるかを決定する手段であって、前記新たな発音内容情報を対応付ける前記和音情報を、当該新たな発音内容情報が示す発音内容に基づいて決定する手段と、を含むようにしてもよい。   Further, according to one aspect of the present invention, there is provided means for accepting registration of new pronunciation content information and means for determining which chord information the new pronunciation content information is associated with. The chord information for associating may be determined based on pronunciation content indicated by the new pronunciation content information.

また、本発明の一態様では、前記対応関係データでは、一つの和音情報に対して一つの発音文字又は発音記号を示す発音内容情報が対応付けられていてもよい。前記歌唱音声出力制御手段は、前記発音内容情報取得手段によって取得された発音内容情報が示す発音文字又は発音記号の歌唱音声を、前記音高情報取得手段によって取得された音高情報に対応する音高で前記出力手段から出力させるようにしてもよい。   In one aspect of the present invention, the correspondence data may be associated with one chord information and pronunciation content information indicating one pronunciation character or pronunciation symbol. The singing voice output control means uses a singing voice of a pronunciation character or a phonetic symbol indicated by the pronunciation content information acquired by the pronunciation content information acquisition means, as a sound corresponding to the pitch information acquired by the pitch information acquisition means. You may make it output from the said output means at high.

また、本発明の一態様では、前記対応関係データでは、一つの和音情報に対して発音文字列又は発音記号列を示す発音内容情報が対応付けられていてもよい。前記歌唱音声出力制御手段は、前記発音内容情報取得手段によって取得された発音内容情報が示す発音文字列又は発音記号列の歌唱音声を、前記音高情報取得手段によって取得される音高情報に対応する音高で前記出力手段から出力させるようにしてもよい。   In the aspect of the present invention, the correspondence data may be associated with one chord information with pronunciation content information indicating a pronunciation character string or a pronunciation symbol string. The singing voice output control means corresponds to the pitch information acquired by the pitch information acquisition means, the singing voice of the pronunciation character string or the phonetic symbol string indicated by the pronunciation content information acquired by the pronunciation content information acquisition means. You may make it output from the said output means by the pitch to perform.

また、本発明の一態様では、前記歌唱音声出力制御手段は、前記第2操作部を用いて音高が入力された場合に、当該音高が入力された時点における前記和音情報に対応付けられた前記発音内容情報が示す発音内容の歌唱音声を、前記音高情報取得手段によって取得される音高情報に対応する音高で前記出力手段から出力させるようにしてもよい。   Further, in one aspect of the present invention, when the pitch is input using the second operation unit, the singing voice output control unit is associated with the chord information at the time when the pitch is input. The singing voice of the pronunciation content indicated by the pronunciation content information may be output from the output means at a pitch corresponding to the pitch information acquired by the pitch information acquisition means.

また、本発明に係る歌唱音声出力制御方法は、第1操作部を用いて入力された和音を示す和音情報を取得する和音情報取得ステップと、第2操作部を用いて入力された音高を示す音高情報を取得する音高情報取得ステップと、和音情報と、発音内容を示す発音内容情報と、を対応付けてなる対応関係データに基づいて、前記和音情報取得ステップによって取得された和音情報に対応付けられた発音内容情報を取得する発音内容情報取得ステップと、前記発音内容情報取得ステップによって取得される発音内容情報と、前記音高情報取得ステップによって取得される音高情報とに基づいて、歌唱音声を出力手段から出力させる歌唱音声出力制御ステップと、を含む。   Moreover, the singing voice output control method according to the present invention includes a chord information acquisition step of acquiring chord information indicating a chord input using the first operation unit, and a pitch input using the second operation unit. The chord information acquired by the chord information acquisition step based on the correspondence data obtained by associating the pitch information acquisition step of acquiring the pitch information indicating, the chord information, and the pronunciation content information indicating the pronunciation content A pronunciation content information acquisition step for acquiring pronunciation content information associated with the pronunciation content information, a pronunciation content information acquired by the pronunciation content information acquisition step, and a pitch information acquired by the pitch information acquisition step. And a singing voice output control step for outputting the singing voice from the output means.

また、本発明に係るプログラムは、第1操作部を用いて入力された和音を示す和音情報を取得する和音情報取得手段、第2操作部を用いて入力された音高を示す音高情報を取得する音高情報取得手段、和音情報と、発音内容を示す発音内容情報と、を対応付けてなる対応関係データに基づいて、前記和音情報取得手段によって取得された和音情報に対応付けられた発音内容情報を取得する発音内容情報取得手段、及び、前記発音内容情報取得手段によって取得される発音内容情報と、前記音高情報取得手段によって取得される音高情報とに基づいて、歌唱音声を出力手段から出力させる歌唱音声出力制御手段、としてコンピュータを機能させるためのプログラムである。   In addition, the program according to the present invention includes a chord information acquisition unit that acquires chord information indicating a chord input using the first operation unit, and pitch information indicating a pitch input using the second operation unit. The pitch information acquisition means to acquire, the chord information, and the pronunciation associated with the chord information acquired by the chord information acquisition means on the basis of the correspondence data that associates the pronunciation content information indicating the pronunciation content Singing sound is output based on pronunciation content information acquisition means for acquiring content information, pronunciation content information acquired by the pronunciation content information acquisition means, and pitch information acquired by the pitch information acquisition means This is a program for causing a computer to function as singing voice output control means to be outputted from the means.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.

本発明によれば、ユーザが歌唱音声の歌詞を指定し易くすることが可能になる。   According to the present invention, the user can easily specify the lyrics of the singing voice.

第1実施形態に係る歌唱音声出力制御装置のブロック図である。It is a block diagram of the singing voice output control device concerning a 1st embodiment. 第1実施形態の対応関係データの一例を示す図である。It is a figure which shows an example of the correspondence data of 1st Embodiment. 第1実施形態においてユーザが歌詞を指定するために行う演奏操作について説明するための図である。It is a figure for demonstrating performance operation which a user performs in order to designate a lyrics in 1st Embodiment. 第1実施形態においてユーザが歌詞を指定するために行う演奏操作について説明するための図である。It is a figure for demonstrating performance operation which a user performs in order to designate a lyrics in 1st Embodiment. 第1実施形態に係る歌唱音声出力制御装置で実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with the singing voice output control apparatus which concerns on 1st Embodiment. 第2実施形態の対応関係データの一例を示す図である。It is a figure which shows an example of the correspondence data of 2nd Embodiment. 第2実施形態の対応関係データの他の一例を示す図である。It is a figure which shows another example of the correspondence data of 2nd Embodiment. 第2実施形態の対応関係データの他の一例を示す図である。It is a figure which shows another example of the correspondence data of 2nd Embodiment. 第2実施形態においてユーザが歌詞を指定するために行う演奏操作について説明するための図である。It is a figure for demonstrating performance operation which a user performs in order to designate a lyrics in 2nd Embodiment. 第2実施形態に係る歌唱音声出力制御装置で実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with the song audio | voice output control apparatus which concerns on 2nd Embodiment. 第3実施形態に係る歌唱音声出力制御装置のブロック図である。It is a block diagram of the singing voice output control device concerning a 3rd embodiment. 第4実施形態の対応関係データの一例を示す図である。It is a figure which shows an example of the correspondence data of 4th Embodiment. 第4実施形態の選択履歴データの一例を示す図である。It is a figure which shows an example of the selection history data of 4th Embodiment. 第5実施形態に係る歌唱音声出力制御装置のブロック図である。It is a block diagram of the singing voice output control device concerning a 5th embodiment. 第1操作部及び第2操作部の一例を示す図である。It is a figure which shows an example of a 1st operation part and a 2nd operation part.

<第1実施形態>
本発明の第1実施形態を以下に説明する。図1は、第1実施形態に係る歌唱音声出力制御装置100のブロック図である。歌唱音声出力制御装置100は、ユーザによって指定された歌詞の歌唱音声を示す音声信号を素片接続型の音声合成によって生成して出力する。
<First Embodiment>
A first embodiment of the present invention will be described below. FIG. 1 is a block diagram of a singing voice output control device 100 according to the first embodiment. The singing voice output control device 100 generates and outputs a voice signal indicating the singing voice of the lyrics designated by the user by segment-connected voice synthesis.

例えば、歌唱音声出力制御装置100は電子楽器(例えば電子オルガン又は電子ピアノ等)によって実現される。なお、歌唱音声出力制御装置100は、電子楽器とインタフェースを介して接続される情報処理装置によって実現することも可能である。または、歌唱音声出力制御装置100は情報処理装置単体によって実現することも可能である。すなわち、歌唱音声出力制御装置100は、据置型の情報処理装置(例えばデスクトップ型コンピュータ又は据置型ゲーム機等)又は携帯型の情報処理装置(例えばラップトップ型コンピュータ、タブレット型コンピュータ、携帯電話、又は携帯ゲーム機等)によって実現することも可能である。   For example, the singing voice output control device 100 is realized by an electronic musical instrument (for example, an electronic organ or an electronic piano). Note that the singing voice output control device 100 can also be realized by an information processing device connected to an electronic musical instrument via an interface. Alternatively, the singing voice output control device 100 can be realized by a single information processing device. That is, the singing voice output control device 100 is a stationary information processing device (for example, a desktop computer or a stationary game machine) or a portable information processing device (for example, a laptop computer, a tablet computer, a mobile phone, or It can also be realized by a portable game machine or the like.

以下では、図1に示すように、演算処理部10と記憶部12と操作部14と放音部16と表示部18とを備える電子楽器によって歌唱音声出力制御装置100を実現する場合について説明する。より具体的には、電子オルガンによって歌唱音声出力制御装置100を実現する場合を例として主に説明する。   Below, as shown in FIG. 1, the case where the singing voice output control apparatus 100 is implement | achieved with the electronic musical instrument provided with the arithmetic processing part 10, the memory | storage part 12, the operation part 14, the sound emission part 16, and the display part 18 is demonstrated. . More specifically, a case where the singing voice output control device 100 is realized by an electronic organ will be mainly described as an example.

演算処理部10は1又は複数のマイクロプロセッサを含んで構成され、記憶部12に記憶されるプログラムPGMや各種データに基づいて演算処理を実行する。記憶部12は1又は複数の記録媒体(例えば半導体記録媒体や磁気記録媒体等)を含んで構成される。例えば、演算処理部10によって実行されるプログラムPGMや、演算処理部10によって使用される各種データが記憶部12に記憶される。   The arithmetic processing unit 10 includes one or a plurality of microprocessors, and executes arithmetic processing based on the program PGM and various data stored in the storage unit 12. The storage unit 12 includes one or a plurality of recording media (for example, a semiconductor recording medium or a magnetic recording medium). For example, the program PGM executed by the arithmetic processing unit 10 and various data used by the arithmetic processing unit 10 are stored in the storage unit 12.

操作部14はユーザの操作を受け付けるためのものであり、ユーザが操作する1又は複数の操作子を含んで構成される。例えば、操作部14はユーザの演奏操作を受け付けるためのであり、複数の演奏操作子(例えば鍵や弦等)を含んで構成される。図1に示すように、操作部14は第1操作部30と第2操作部32とを含む。例えば、第1鍵盤及び第2鍵盤を備えた電子オルガンによって歌唱音声出力制御装置100が実現される場合であれば、第1鍵盤が第1操作部30に相当し、第2鍵盤が第2操作部32に相当する。   The operation unit 14 is for accepting a user operation, and includes one or a plurality of operation elements operated by the user. For example, the operation unit 14 is for receiving a user's performance operation, and includes a plurality of performance operators (for example, keys and strings). As shown in FIG. 1, the operation unit 14 includes a first operation unit 30 and a second operation unit 32. For example, if the singing voice output control device 100 is realized by an electronic organ having a first keyboard and a second keyboard, the first keyboard corresponds to the first operation unit 30 and the second keyboard is a second operation. It corresponds to the section 32.

放音部16は例えばスピーカ又はヘッドホン等であり、演算処理部10から供給される音声信号に応じた音波を放射する。表示部18は例えば液晶表示ディスプレイ又は有機ELディスプレイ等であり、演算処理部10の制御に基づいて画面を表示する。   The sound emitting unit 16 is a speaker or a headphone, for example, and radiates a sound wave corresponding to the sound signal supplied from the arithmetic processing unit 10. The display unit 18 is, for example, a liquid crystal display or an organic EL display, and displays a screen based on the control of the arithmetic processing unit 10.

歌唱音声出力制御装置100では、ユーザが指定した歌詞の歌唱音声が合成されて出力されるようになっており、特に、ユーザが和音(音高が異なる3つ以上の音から構成される音)を演奏することによって歌詞を指定できるようになっている。以下、このような機能について説明する。   In the singing voice output control device 100, the singing voice of the lyrics specified by the user is synthesized and outputted, and in particular, the user selects a chord (a sound composed of three or more sounds having different pitches). You can specify the lyrics by playing. Hereinafter, such a function will be described.

記憶部12には、上記機能を実現するためのデータとして、図1に示すように音声素片群Gや対応関係データDが記憶されている。   As shown in FIG. 1, the speech unit group G and the correspondence data D are stored in the storage unit 12 as data for realizing the above functions.

音声素片群Gは、音声信号を生成するための素材として用いられる複数の音声素片の集合(音声合成ライブラリ)である。音声素片は、言語的な意味を区別可能な最小単位である音素(例えば母音や子音)や、複数の音素を連結した音素連鎖(例えばダイフォンやトライフォン)である。   The speech unit group G is a set (speech synthesis library) of a plurality of speech units used as a material for generating a speech signal. A phoneme segment is a phoneme (for example, a vowel or a consonant) that is the smallest unit that can distinguish linguistic meaning, or a phoneme chain (for example, a diphone or a triphone) that connects a plurality of phonemes.

対応関係データDは、和音情報と、発音内容を示す発音内容情報と、を対応付けてなるデータである。図2は対応関係データDの一例を示す。図2に示す対応関係データDでは、1つの発音文字(発音記号)に対して1つの和音が対応付けられており、発音文字(発音記号)と和音とが1対1に対応付けられている。図2に示す対応関係データDでは、発音文字(発音記号)が発音内容情報に相当している。   The correspondence data D is data in which chord information is associated with pronunciation content information indicating the pronunciation content. FIG. 2 shows an example of the correspondence data D. In the correspondence data D shown in FIG. 2, one chord is associated with one phonetic character (phonetic symbol), and the phonetic character (phonetic symbol) and the chord are correlated one-to-one. . In the correspondence data D shown in FIG. 2, the phonetic characters (phonetic symbols) correspond to the phonetic content information.

図2に示す例では、和音の根音(例えばC,C#,D等)が日本語の50音の各行にそれぞれ対応付けられており、5種類のコード(メジャーコード、マイナーコード、セブンスコード、マイナーセブンスコード、メジャーセブンスコード)が各行における各文字にそれぞれ対応付けられている。言い換えれば、和音の根音が子音(k,s,t,n,h,m,y,r,w)に対応付けられており、上記5種類のコードが母音(a,i,u,e,o)にそれぞれ対応付けられている。例えば図2に示す例では、あ行に属する発音文字「あ」,「い」,「う」,「え」,「お」にそれぞれ和音「C」,「Cm」,「C7」,「Cm7」,「CM7」が対応付けられている。また図2に示す例では、か行に属する発音文字「か」,「き」,「く」,「け」,「こ」にそれぞれ和音「C#」,「C#m」,「C#7」,「C#m7」,「C#M7」が対応付けられている。先述したように、図2に示す例では、これらの発音文字「あ」,「い」,「う」,「え」,「お」,「か」,「き」,「く」,「け」,「こ」等がそれぞれ発音内容情報の一例に相当している。なお、以上のように、図2に示す例では、和音の根音が日本語の50音の各行にそれぞれ対応付けられ、かつ、5種類のコードが各行における各文字にそれぞれ対応付けられていることによって、ユーザが和音と発音文字との対応関係を把握し易くなっている。   In the example shown in FIG. 2, a chord root note (for example, C, C #, D, etc.) is associated with each line of 50 Japanese sounds, and five types of codes (major code, minor code, and seventh code). , Minor seventh code, major seventh code) are associated with each character in each line. In other words, the root of the chord is associated with the consonant (k, s, t, n, h, m, y, r, w), and the above five types of chords are the vowels (a, i, u, e). , O), respectively. For example, in the example shown in FIG. 2, chords “C”, “Cm”, “C7”, “Cm7” are respectively added to the phonetic characters “A”, “I”, “U”, “E”, “O” belonging to that row. ”And“ CM7 ”. In the example shown in FIG. 2, the phonetic characters "ka", "ki", "ku", "ke", and "ko" belonging to the line are respectively chords "C #", "C # m", and "C #". 7 ”,“ C # m7 ”, and“ C # M7 ”are associated with each other. As described above, in the example shown in FIG. 2, these pronunciation characters “a”, “i”, “u”, “e”, “o”, “ka”, “ki”, “ku”, “ke” "," "Ko", etc. each correspond to an example of pronunciation content information. As described above, in the example shown in FIG. 2, the root of the chord is associated with each line of 50 Japanese sounds, and five types of codes are associated with each character in each line. This makes it easier for the user to understand the correspondence between chords and pronunciation characters.

また図2に示す例では、アドナインス(add9)、アドイレブンス(add11)、及びアドフラットナインス(add♭9)等のテンションコードがそれぞれ濁音、半濁音、及び拗音に対応付けられている。例えば、「さ」には和音「D」が対応付けられており、「さ」の濁音である「ざ」には和音「D7(add9)」が対応付けられている。また例えば、「は」には和音「F」が対応付けられており、「は」の半濁音である「ぱ」には和音「F(add11)」が対応付けられている。また例えば、た行に属する拗音である「ちゃ」には和音「D#(add♭9)」が対応付けられ、「ちゅ」には和音「D#m(add♭9)」が対応付けられ、「ちょ」には和音「D#7(add♭9)」が対応付けられる。図2に示す例では、これらの発音文字「ざ」,「ぱ」,「ちゃ」,「ちゅ」,「ちょ」等もそれぞれ発音内容情報の一例に相当している。   In the example shown in FIG. 2, tension codes such as adnain (add9), ad elevens (add11), and adflat nines (add ♭ 9) are associated with muddy sound, semi-turbid sound, and stuttering sound, respectively. For example, a chord “D” is associated with “sa”, and a chord “D7 (add9)” is associated with “za”, which is the muffled sound of “sa”. For example, chord “F” is associated with “ha”, and chord “F (add11)” is associated with “pa”, which is a semi-turbid sound of “ha”. Further, for example, the chord “D # (add ♭ 9)” is associated with the chord that belongs to the line, and the chord “D # m (add ♭ 9)” is associated with “chu”. , “Cho” is associated with the chord “D # 7 (add 9)”. In the example shown in FIG. 2, these pronunciation characters “za”, “pa”, “cha”, “chu”, “cho”, and the like correspond to examples of pronunciation content information.

歌唱音声出力制御装置100では、上記の対応関係データDを用いることによって、ユーザが和音を演奏することによって歌詞を指定できるようになっている。ここで、ユーザが歌詞を指定するために行う演奏操作について図3及び図4を参照しながら説明する。図3は、ユーザが歌詞を指定するために行う演奏操作の一例を示す楽譜である。図3では、日本語で「明日は晴れるのかしら」を意味する歌詞「あすわはれるのかしら」を指定する場合を想定している。なお、図3に記載された和音は、歌詞を構成する各文字に対応付けられた和音を示しており(図2参照)、伴奏のための和音ではない。図4は、ユーザが上記歌詞を指定するために行う演奏操作の一例について説明するための図である。図4では、上記歌詞中の日本語で「明日」を意味する部分「あす」を指定する場合を想定している。また図4においてt軸は時間軸を示している。   In the singing voice output control device 100, the user can designate lyrics by playing chords by using the correspondence data D described above. Here, a performance operation performed by the user for designating lyrics will be described with reference to FIGS. FIG. 3 is a musical score showing an example of a performance operation performed by the user for designating lyrics. In FIG. 3, it is assumed that the lyrics “I wonder if it will be fine tomorrow” in Japanese are specified. Note that the chords shown in FIG. 3 indicate chords associated with the characters constituting the lyrics (see FIG. 2), and are not chords for accompaniment. FIG. 4 is a diagram for explaining an example of a performance operation performed by the user for designating the lyrics. In FIG. 4, it is assumed that a part “ASU” meaning “Tomorrow” is specified in Japanese in the lyrics. In FIG. 4, the t-axis indicates the time axis.

歌詞を指定する際、ユーザは一方の手(例えば左手)で第1鍵盤(第1操作部30)を演奏し、他方の手(例えば右手)で第2鍵盤(第2操作部32)を演奏する。まず、ユーザは第1鍵盤を用いて、歌詞の第1番目の文字として「あ」を指定する。図2に示すように、発音文字「あ」には和音「C」が対応付けられている。このため、図4に示すように、ユーザは第1鍵盤において和音「C」に対応する鍵を押鍵する。さらに、その状態でユーザは「あ」の音声を放音する際の音高を第2鍵盤を用いて指定する。図3に示す例では、「あ」の音声を放音する際の音高として「ファ」が指定されている。この場合、図4に示すように、ユーザは第2鍵盤において「ファ」の鍵を押鍵する。この場合、「ファ」の音高を有する「あ」の歌唱音声が合成されて放音部16から放音される。   When designating lyrics, the user plays the first keyboard (first operation unit 30) with one hand (for example, the left hand) and the second keyboard (second operation unit 32) with the other hand (for example, the right hand). To do. First, the user designates “A” as the first character of the lyrics using the first keyboard. As shown in FIG. 2, the chord “C” is associated with the phonetic character “A”. For this reason, as shown in FIG. 4, the user presses the key corresponding to the chord “C” on the first keyboard. Furthermore, in this state, the user designates the pitch when the sound of “A” is emitted using the second keyboard. In the example shown in FIG. 3, “Fa” is designated as the pitch when the sound “A” is emitted. In this case, as shown in FIG. 4, the user presses the “Fa” key on the second keyboard. In this case, the singing voice of “A” having the pitch of “Fa” is synthesized and emitted from the sound emission unit 16.

次に、ユーザは第1鍵盤を用いて、歌詞の第2番目の文字として「す」を指定する。図2に示すように、発音文字「す」には和音「D7」が対応付けられている。このため、図4に示すように、ユーザは第1鍵盤において和音「D7」に対応する鍵を押鍵する。さらに、その状態でユーザは「す」の音声を放音する際の音高を第2鍵盤を用いて指定する。図3に示す例では、「す」の音声を放音する際の音高として「ラ」が指定されている。この場合、図4に示すように、ユーザは第2鍵盤において「ラ」の鍵を押鍵する。この場合、「ラ」の音高を有する「す」の歌唱音声が合成されて放音部16から放音される。その後、ユーザは上記と同様にして歌詞の第3番目以降の文字を指定していく。   Next, the user designates “su” as the second character of the lyrics using the first keyboard. As shown in FIG. 2, the chord “D7” is associated with the phonetic character “su”. For this reason, as shown in FIG. 4, the user presses the key corresponding to the chord “D7” on the first keyboard. Further, in this state, the user designates the pitch when the sound of “su” is emitted using the second keyboard. In the example shown in FIG. 3, “La” is designated as the pitch when the sound of “su” is emitted. In this case, as shown in FIG. 4, the user presses the “L” key on the second keyboard. In this case, the singing voice of “su” having the pitch “ra” is synthesized and emitted from the sound emitting unit 16. Thereafter, the user designates the third and subsequent characters of the lyrics in the same manner as described above.

なお、図2に示した対応関係データDでは促音に関して和音が対応付けられていないが、促音に関しては下記に説明するようにして放音させることが可能である。例えば、「た」の促音である「たっ」の歌唱音声を放音させる場合であれば、ユーザは、発音文字「た」に対応付けられた和音「D#」に対応する鍵を第1鍵盤において押鍵し、かつ、「た」の音声を放音する際の音高に対応する鍵を第2鍵盤において押鍵した直後、第1鍵盤及び第2鍵盤から指を離すことによって、「たっ」の歌唱音声を放音させることが可能である。   In the correspondence relationship data D shown in FIG. 2, chords are not associated with the prompt sounds, but the prompt sounds can be emitted as described below. For example, if the singing voice of “Tat”, which is the sound of “T”, is to be emitted, the user uses a key corresponding to the chord “D #” associated with the phonetic character “T” on the first keyboard. After pressing the key corresponding to the pitch at which the sound of “ta” is released on the second keyboard, the finger is released from the first keyboard and the second keyboard immediately after the key is pressed. Can be released.

以上のように、歌唱音声出力制御装置100では、ユーザが和音を演奏することによって歌詞を指定できるようになっている。このような歌詞指定機能は、演算処理部10が記憶部12に記憶されるプログラムPGMや対応関係データDに基づいて処理を実行することによって実現される。すなわち、図1に示すように、和音情報取得部20と音高情報取得部22と発音内容情報取得部24と歌唱音声出力制御部26と歌唱音声合成部28とが演算処理部10によって実現されることによって、上記のような歌詞指定機能が実現される。なお、和音情報取得部20、音高情報取得部22、発音内容情報取得部24、歌唱音声出力制御部26、及び歌唱音声合成部28は複数の集積回路に分散して実現することも可能であるし、これらの一部又は全部を専用の電子回路(DSP)によって実現することも可能である。   As described above, in the singing voice output control device 100, the user can designate lyrics by playing chords. Such a lyrics designating function is realized when the arithmetic processing unit 10 executes processing based on the program PGM and the correspondence data D stored in the storage unit 12. That is, as shown in FIG. 1, the chord information acquisition unit 20, pitch information acquisition unit 22, pronunciation content information acquisition unit 24, singing voice output control unit 26, and singing voice synthesis unit 28 are realized by the arithmetic processing unit 10. As a result, the above-described lyrics designating function is realized. The chord information acquisition unit 20, the pitch information acquisition unit 22, the pronunciation content information acquisition unit 24, the singing voice output control unit 26, and the singing voice synthesis unit 28 can also be realized by being distributed over a plurality of integrated circuits. In addition, some or all of these can be realized by a dedicated electronic circuit (DSP).

和音情報取得部20は、第1操作部30を用いて入力された和音を示す和音情報を取得する。例えば、和音情報取得部20は第1鍵盤(第1操作部30)を用いて演奏された和音を示す和音情報を取得する。例えば、歌唱音声出力制御装置100では、第1鍵盤で行われている演奏内容(例えば各鍵の押鍵状態)を示す第1演奏操作データが演算処理部10に供給される。和音情報取得部20は第1演奏操作データに基づいて、第1鍵盤で和音が演奏されているか否かを判定したり、第1鍵盤で演奏されている和音の種類を特定したりする。   The chord information acquisition unit 20 acquires chord information indicating the chord input using the first operation unit 30. For example, the chord information acquisition unit 20 acquires chord information indicating a chord played using the first keyboard (first operation unit 30). For example, in the singing voice output control apparatus 100, first performance operation data indicating the performance content (for example, the key pressing state of each key) being performed on the first keyboard is supplied to the arithmetic processing unit 10. Based on the first performance operation data, the chord information acquisition unit 20 determines whether or not a chord is being played on the first keyboard, and identifies the type of chord being played on the first keyboard.

音高情報取得部22は、第2操作部32を用いて入力された音高を示す音高情報を取得する。例えば、音高情報取得部22は第2鍵盤(第2操作部32)を用いて演奏された音高を示す音高情報を取得する。例えば、歌唱音声出力制御装置100では、第2鍵盤で行われている演奏内容(例えば各鍵の押鍵状態)を示す第2演奏操作データが演算処理部10に供給される。音高情報取得部22は第2演奏操作データに基づいて、第2鍵盤のうちのユーザによって押鍵されている鍵を特定し、かつ、当該鍵に対応する音高を特定する。   The pitch information acquisition unit 22 acquires pitch information indicating the pitch input using the second operation unit 32. For example, the pitch information acquisition unit 22 acquires pitch information indicating the pitch played using the second keyboard (second operation unit 32). For example, in the singing voice output control device 100, second performance operation data indicating the performance content (for example, the key pressing state of each key) being performed on the second keyboard is supplied to the arithmetic processing unit 10. Based on the second performance operation data, the pitch information acquisition unit 22 specifies the key pressed by the user on the second keyboard and specifies the pitch corresponding to the key.

発音内容情報取得部24は、記憶部12に記憶された対応関係データDに基づいて、和音情報取得部20によって取得された和音情報に対応付けられた発音内容情報を取得する。例えば、発音内容情報取得部24は図2に示す対応関係データDを参照し、和音情報取得部20によって特定された和音に対応付けられた発音文字(発音内容情報)を取得する。   The pronunciation content information acquisition unit 24 acquires the pronunciation content information associated with the chord information acquired by the chord information acquisition unit 20 based on the correspondence data D stored in the storage unit 12. For example, the pronunciation content information acquisition unit 24 refers to the correspondence data D shown in FIG. 2 and acquires the pronunciation character (pronunciation content information) associated with the chord specified by the chord information acquisition unit 20.

歌唱音声出力制御部26は、発音内容情報取得部24によって取得される発音内容情報と、音高情報取得部22によって取得される音高情報とに基づいて、歌唱音声を放音部16(出力手段)から放音させる。すなわち、歌唱音声出力制御部26は、上記発音内容情報が示す発音文字の歌唱音声を上記音高情報に対応する音高で放音部16から放音させる。   The singing voice output control unit 26 emits the singing voice based on the pronunciation content information acquired by the pronunciation content information acquisition unit 24 and the pitch information acquired by the pitch information acquisition unit 22. Sound). That is, the singing voice output control unit 26 emits the singing voice of the pronunciation character indicated by the pronunciation content information from the sound emitting unit 16 at a pitch corresponding to the pitch information.

例えば、歌唱音声出力制御部26は発音内容情報及び音高情報を歌唱音声合成部28に供給することによって、発音内容情報が示す発音文字の歌唱音声であって、かつ、音高情報に対応する音高を有する歌唱音声を歌唱音声合成部28に生成させて、放音部16から放音させる。   For example, the singing voice output control unit 26 supplies the singing voice information and the pitch information to the singing voice synthesizing unit 28, so that it is the singing voice of the pronunciation character indicated by the pronunciation content information and corresponds to the pitch information. A singing voice having a pitch is generated by the singing voice synthesizing unit 28 and emitted from the sound emitting unit 16.

この場合、歌唱音声合成部28は、発音文字に対応する音声素片の波形データを音声素片群Gから読み出す。また歌唱音声合成部28は、音高情報に対応する音高となるように、読み出した音声素片の波形データにピッチ変換を施す。そして歌唱音声合成部28は、ピッチ変換後の波形データに基づいて、歌唱音声を放音部16から放音させる。   In this case, the singing voice synthesizing unit 28 reads the waveform data of the speech unit corresponding to the phonetic character from the speech unit group G. In addition, the singing voice synthesizing unit 28 performs pitch conversion on the waveform data of the read speech segment so that the pitch corresponds to the pitch information. Then, the singing voice synthesizing unit 28 emits the singing voice from the sound emitting unit 16 based on the waveform data after the pitch conversion.

なお、図1では歌唱音声出力制御部26と歌唱音声合成部28とが別個の機能として実現されているが、歌唱音声出力制御部26と歌唱音声合成部28とが一個の機能として実現されるようにしてもよい。すなわち、歌唱音声合成部28の機能は歌唱音声出力制御部26に含まれていてもよい。   In FIG. 1, the singing voice output control unit 26 and the singing voice synthesizing unit 28 are realized as separate functions, but the singing voice output control unit 26 and the singing voice synthesizing unit 28 are realized as one function. You may do it. That is, the function of the singing voice synthesizing unit 28 may be included in the singing voice output control unit 26.

次に、演算処理部10が記憶部12に記憶されるプログラムPGMに従って実行する処理の一例について説明する。図5は演算処理部10が実行する処理の一例を示すフロー図である。演算処理部10が図5に示す処理をプログラムPGMに従って実行することによって、和音情報取得部20、音高情報取得部22、発音内容情報取得部24、歌唱音声出力制御部26、及び歌唱音声合成部28が実現される。   Next, an example of processing executed by the arithmetic processing unit 10 according to the program PGM stored in the storage unit 12 will be described. FIG. 5 is a flowchart showing an example of processing executed by the arithmetic processing unit 10. The arithmetic processing unit 10 executes the processing shown in FIG. 5 according to the program PGM, so that the chord information acquisition unit 20, the pitch information acquisition unit 22, the pronunciation content information acquisition unit 24, the singing voice output control unit 26, and the singing voice synthesis The unit 28 is realized.

図5に示すように、演算処理部10は、第2鍵盤における演奏内容を示す第2演奏操作データに基づいて、第2鍵盤のいずれかの鍵が押鍵されているか否かを判定する(S100)。第2鍵盤のいずれかの鍵が押鍵されていると判定された場合、演算処理部10は、押鍵されている鍵に対応する音高を取得する(S102)。また、演算処理部10は、第1鍵盤における演奏内容を示す第1演奏操作データに基づいて、第1鍵盤においていずれかの和音が演奏されているか否かを判定する(S104)。すなわち、演算処理部10は、和音を構成する複数の音にそれぞれ対応する複数の鍵が押鍵されているか否かを判定する。なお、演算処理部10は、対応関係データDで用いられている和音(言い換えれば、いずれかの発音文字に関連付けられている和音)が演奏されているか否かを判定し、対応関係データDで用いられていない和音については無視する。   As shown in FIG. 5, the arithmetic processing unit 10 determines whether or not any key of the second keyboard is pressed based on the second performance operation data indicating the performance content of the second keyboard ( S100). When it is determined that any key of the second keyboard is depressed, the arithmetic processing unit 10 acquires a pitch corresponding to the depressed key (S102). The arithmetic processing unit 10 determines whether any chord is played on the first keyboard based on the first performance operation data indicating the performance content on the first keyboard (S104). That is, the arithmetic processing unit 10 determines whether or not a plurality of keys respectively corresponding to a plurality of sounds constituting the chord are pressed. The arithmetic processing unit 10 determines whether or not a chord used in the correspondence relationship data D (in other words, a chord associated with any phonetic character) is played. Ignore chords that are not used.

第1鍵盤で和音が演奏されていると判定された場合、演算処理部10は対応関係データDを参照し、当該和音に対応付けられた発音文字を取得する(S106)。そして、演算処理部10は、ステップS108で取得された発音文字の歌唱音声をステップS104で取得された音高で放音部16から放音させる(S108)。例えば、演算処理部10は、ステップS108で取得された発音文字に対応する音声素片の波形データを音声素片群Gから読み出し、ステップS104で取得された音高となるように、読み出した音声素片の波形データにピッチ変換を施す。そして演算処理部10は、ピッチ変換後の波形データに基づいて、歌唱音声を放音部16から放音を開始させる。   When it is determined that a chord is being played on the first keyboard, the arithmetic processing unit 10 refers to the correspondence data D and acquires a pronunciation character associated with the chord (S106). And the arithmetic processing part 10 emits the singing voice of the phonetic character acquired by step S108 from the sound emission part 16 with the pitch acquired by step S104 (S108). For example, the arithmetic processing unit 10 reads out the waveform data of the speech unit corresponding to the phonetic character acquired in step S108 from the speech unit group G, and reads out the speech so as to be the pitch acquired in step S104. Pitch conversion is performed on the waveform data of the segment. And the arithmetic processing part 10 starts sound emission from the sound emission part 16 based on the waveform data after pitch conversion.

ステップS108が実行された後、演算処理部10は、第2鍵盤で押鍵されていた鍵が離鍵されたか否かを監視する(S110)。第2鍵盤で押鍵されていた鍵が離鍵されたと判定された場合、演算処理部10はステップS108で開始された放音を停止する(S112)。そして、演算処理部10はステップS100から再び処理を実行する。なお、ステップS100において第2鍵盤のいずれかの鍵が押鍵されていると判定されなかった場合や、ステップS104において第1鍵盤においていずれかの和音が演奏されていると判定されなかった場合にも、ステップS100から再び処理が実行される。   After step S108 is executed, the arithmetic processing unit 10 monitors whether or not the key pressed on the second keyboard has been released (S110). When it is determined that the key pressed on the second keyboard has been released, the arithmetic processing unit 10 stops the sound emission started in step S108 (S112). And the arithmetic processing part 10 performs a process again from step S100. If it is not determined in step S100 that any key of the second keyboard is pressed, or if it is not determined in step S104 that any chord is played on the first keyboard. Also, the process is executed again from step S100.

なお、図5に示す例では、第2鍵盤のいずれかの鍵が押鍵されたと判定された後で、第1鍵盤でいずれかの和音が演奏されているか否かの判定(S104)や、第1鍵盤で演奏されている和音に対応する発音文字の取得(S106)を実行するようになっていたが、これらの判定や取得は、第2鍵盤のいずれかの鍵が押鍵されたと判定される前に予め実行しておくようにしてもよい。   In the example shown in FIG. 5, it is determined whether any chord is being played on the first keyboard after determining that any key on the second keyboard is pressed (S104), Acquisition of pronunciation characters corresponding to the chord being played on the first keyboard is executed (S106). These determinations and acquisitions are based on the determination that any key on the second keyboard is pressed. It may be executed in advance before being executed.

以上に説明した第1実施形態に係る歌唱音声出力制御装置100によれば、ユーザが和音を演奏することによって歌詞を指定できるようになる。歌唱音声出力制御装置100によれば、歌詞を指定するための運指が和音を演奏するための運指となり、通常の演奏で行われる運指となるため、演奏に慣れたユーザにとって歌詞を指定し易くなる。歌唱音声出力制御装置100によれば、ユーザは歌詞と音高との両方を指定し易くなり、任意の歌詞及び音高の歌唱音声を生成し易くなる。なお、歌唱音声出力制御装置100によれば、演奏に慣れていないユーザにとっても、歌詞の指定を通じて、和音を演奏するための運指を身につけることができるという利点がある。   According to the singing voice output control apparatus 100 according to the first embodiment described above, the user can designate lyrics by playing chords. According to the singing voice output control device 100, the fingering for designating the lyrics becomes the fingering for playing the chord, and the fingering performed in the normal performance. It becomes easy to do. According to the singing voice output control apparatus 100, the user can easily specify both lyrics and pitches, and can easily generate singing voices having arbitrary lyrics and pitches. In addition, according to the singing voice output control apparatus 100, there is an advantage that even a user who is not accustomed to playing can wear fingering for playing chords by specifying lyrics.

なお、以上では、日本語の歌詞を指定する場合について説明したが、歌唱音声出力制御装置100では、日本語以外の言語の歌詞を指定できるようにすることも可能である。例えば、日本語以外の言語の歌詞を指定できるようにする場合には、和音と、日本語以外の言語の発音文字(発音記号)と、を対応付けてなる対応関係データDを用いるようにすればよい。なお、この場合の対応関係データDでは発音文字(発音記号)を音節単位で和音に対応付けるようにしてもよい。すなわち、1つの音節を1つの和音に対応付けるようにしてもよい。例えば、「september」の英単語の場合であれば、「sep」,「tem」,「ber」の音節をそれぞれ和音に対応付けるようにしてもよい。   Although the case where Japanese lyrics are specified has been described above, the singing voice output control apparatus 100 can also specify lyrics in languages other than Japanese. For example, when it is possible to specify lyrics in a language other than Japanese, correspondence data D that associates chords with pronunciation characters (pronunciation symbols) in languages other than Japanese is used. That's fine. In the correspondence data D in this case, the phonetic characters (phonetic symbols) may be associated with chords in syllable units. That is, one syllable may be associated with one chord. For example, in the case of the English word “september”, the syllables “sep”, “tem”, and “ber” may be associated with chords.

<第2実施形態>
本発明の第2実施形態を以下に説明する。第1実施形態の対応関係データDでは和音と発音文字とが1対1に対応付けられていた。第2実施形態の対応関係データDでは、和音と発音文字列とが1対1に対応付けられている。なお、第2実施形態に係る歌唱音声出力制御装置100のブロック図は第1実施形態と同様である。以下では、機能や作用が第1実施形態と異なる構成要素に関して主に説明し、機能や作用が第1実施形態と同じ構成要素に関しては詳細な説明を省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In the correspondence data D of the first embodiment, chords and pronunciation characters are associated one-to-one. In the correspondence data D of the second embodiment, chords and pronunciation character strings are associated one-to-one. The block diagram of the singing voice output control device 100 according to the second embodiment is the same as that of the first embodiment. In the following description, components and functions that are different from those of the first embodiment will be mainly described, and detailed descriptions of components that have the same functions and operations as those of the first embodiment will be omitted.

図6は、第2実施形態の記憶部12に記憶される対応関係データDの一例を示す。図6に示す例では、1つの発音文字列(発音記号列)に対して1つの和音が対応付けられており、発音文字列(発音記号列)と和音とが1対1に対応付けられている。なお、第1実施形態の対応関係データDと同様、第2実施形態の対応関係データDも、和音情報と、発音内容を示す発音内容情報と、を対応付けてなるデータである。図6に示す例では、発音文字列(発音記号列)が発音内容情報に相当している。例えば、図6に示す例では、日本語で「眩しい」を意味する発音文字列「まぶしい」が和音「Cm7」に対応付けられており、この発音文字列「まぶしい」は発音内容情報の一例に相当している。   FIG. 6 shows an example of the correspondence data D stored in the storage unit 12 of the second embodiment. In the example shown in FIG. 6, one chord is associated with one phonetic character string (phonetic symbol string), and the phonetic character string (phonetic symbol string) and the chord are correlated one-to-one. Yes. Similar to the correspondence data D of the first embodiment, the correspondence data D of the second embodiment is data obtained by associating chord information with pronunciation content information indicating the content of pronunciation. In the example shown in FIG. 6, a pronunciation character string (a pronunciation symbol string) corresponds to the pronunciation content information. For example, in the example shown in FIG. 6, a pronunciation character string “Mabushi” meaning “dazzling” in Japanese is associated with a chord “Cm7”, and this pronunciation character string “Mabashi” is an example of pronunciation content information. It corresponds.

また、図6に示す例では、日本語で「綺麗な空」を意味する発音文字列「きれいなそら」が和音「C#」に対応付けられており、日本語で「暗い空」を意味する発音文字列「くらいそら」が和音「C#m」に対応付けられている。   In the example shown in FIG. 6, the pronunciation character string “Kei na Sora” meaning “beautiful sky” in Japanese is associated with the chord “C #”, meaning “dark sky” in Japanese. The pronunciation character string “Okusora” is associated with the chord “C # m”.

すなわち、図6に示す例では、和音の有する特徴と、発音文字列の内容と、が対応するようにして、和音と発音文字列とが対応付けられている。具体的には、和音が聞き手に与える印象と、発音文字列の内容が聞き手に与える印象と、が対応するようにして、和音と発音文字列とが対応付けられている。例えば、明るい印象を聞き手に与える内容を有する発音文字列が、明るい印象を聞き手に与える和音(例えばメジャーコードの和音)に対応付けられており、暗い印象を聞き手に与える内容を有する発音文字列が、暗い印象を聞き手に与える和音(例えばマイナーコードの和音)に対応付けられている。このようにして和音と発音文字列とが対応付けられていることによって、ユーザが和音に対応付けられた発音文字列の内容を推測できるようになっている。   That is, in the example shown in FIG. 6, the chord and the pronunciation character string are associated with each other so that the characteristics of the chord correspond to the contents of the pronunciation character string. Specifically, the chord and the pronunciation character string are associated with each other so that the impression that the chord gives to the listener corresponds to the impression that the content of the pronunciation character string gives to the listener. For example, a phonetic character string having a content that gives a bright impression to the listener is associated with a chord (for example, a chord of a major chord) that gives the listener a bright impression, and a phonetic character string having a content that gives a dark impression to the listener The chord is associated with a chord that gives the listener a dark impression (for example, a chord of a minor chord). Thus, the chord and the pronunciation character string are associated with each other, so that the user can guess the contents of the pronunciation character string associated with the chord.

なお、図6に示す例では日本語の発音文字列が和音と対応付けられているが、例えば図7や図8に示すように、日本語以外の言語の発音文字列が和音と対応付けられていてもよい。図7は、英語の発音文字列(発音内容情報)が和音と対応付けられた対応関係データDの一例を示しており、図8は、ドイツ語の発音文字列(発音内容情報)が和音と対応付けられた対応関係データDの一例を示している。なお、英語やドイツ語を用いた歌唱音声合成では、単語を発音記号に変換して歌唱音声を合成するのが一般的であるため、図7や図8でに示す対応関係データDでは発音記号列を和音と対応付けるようにしてもよい。この場合、発音記号列が発音内容情報に相当する。   In the example shown in FIG. 6, Japanese pronunciation character strings are associated with chords, but for example, as shown in FIGS. 7 and 8, pronunciation character strings in languages other than Japanese are associated with chords. It may be. FIG. 7 shows an example of correspondence data D in which an English pronunciation character string (pronunciation content information) is associated with a chord, and FIG. 8 shows a German pronunciation character string (pronunciation content information) as a chord. An example of the correspondence data D associated with each other is shown. In singing voice synthesis using English or German, it is common to synthesize a singing voice by converting a word into a phonetic symbol. Therefore, in the correspondence data D shown in FIG. 7 and FIG. A sequence may be associated with a chord. In this case, the phonetic symbol string corresponds to the pronunciation content information.

例えば、図6に示す例の場合、ユーザが第1鍵盤(第1操作部30)を用いて「C7」,「C#」,「E」,「D#m7」のような順序で和音を演奏すると、これらの和音にそれぞれ対応付けられた発音文字列が、和音の演奏順に従って、歌詞として指定されたことになり、それらの発音文字列の歌唱音声が放音部16から順に放音される。すなわち、この場合、「まぶしい きれいなそら ひとりでも やってみよう」の歌唱音声が放音部16から放音される。   For example, in the example shown in FIG. 6, the user uses the first keyboard (first operation unit 30) to play chords in the order of “C7”, “C #”, “E”, “D # m7”. When the performance is performed, the pronunciation character strings respectively associated with these chords are designated as lyrics according to the order of the chords, and the singing voices of those pronunciation character strings are emitted in order from the sound emission unit 16. The That is, in this case, the singing voice of “Let's try it alone alone” is emitted from the sound emitting unit 16.

ここで、第2実施形態においてユーザが歌詞を指定するために行う演奏操作について図9を参照しながら説明する。図9は、ユーザが歌詞を指定するために行う演奏操作の一例について説明するための図である。図9では、日本語で「眩しい」を意味する発音文字列「まぶしい」を歌詞として指定する場合を想定している。また図9においてt軸は時間軸を示している。   Here, a performance operation performed for the user to specify lyrics in the second embodiment will be described with reference to FIG. FIG. 9 is a diagram for explaining an example of a performance operation performed by the user for designating lyrics. In FIG. 9, it is assumed that the pronunciation character string “Magai” meaning “dazzling” in Japanese is designated as the lyrics. In FIG. 9, the t-axis represents the time axis.

図9に示すように、まず、ユーザは第1鍵盤(第1操作部30)を用いて、発音文字列「まぶしい」が対応付けられた和音「C7」を演奏する。また、ユーザは第2鍵盤(第2操作部32)を用いて、発音文字列の第1番目の文字「ま」の音声を放音する際の音高を指定する。図9に示す例では「ファ」の鍵が押鍵されており、「ファ」が指定されている。   As shown in FIG. 9, first, the user plays a chord “C7” associated with the pronunciation character string “Dazzle” using the first keyboard (first operation unit 30). Further, the user uses the second keyboard (second operation unit 32) to designate a pitch when the sound of the first character “ma” in the pronunciation character string is emitted. In the example shown in FIG. 9, the key “Fa” is pressed and “Fa” is designated.

この場合、和音「C7」に対応付けられた発音文字列「まぶしい」が歌詞として選択され、第1番目の文字「ま」の歌唱音声であって、かつ、「ファ」の音高を有する歌唱音声が合成されて放音部16から放音される。なお、ユーザが「ファ」の鍵を離鍵するまで、上記音声が放音され続ける。   In this case, the pronunciation character string “Mabushii” associated with the chord “C7” is selected as the lyrics, the singing voice of the first character “MA”, and having the pitch of “Fa” The sound is synthesized and emitted from the sound emitting unit 16. Note that the sound continues to be emitted until the user releases the “Fa” key.

第2鍵盤の「ファ」の鍵を離鍵した後、ユーザは第2鍵盤のいずれかの鍵を押鍵することによって、第2番目の文字「ぶ」の音声を放音する際の音高を指定する。図9に示す例では「ソ」の鍵が押鍵されているため、第2番目の文字「ぶ」の歌唱音声であって、かつ、「ソ」の音高を有する歌唱音声が合成されて放音部16から放音される。   After releasing the “Fa” key on the second keyboard, the user presses any key on the second keyboard to release the pitch of the second character “B”. Is specified. In the example shown in FIG. 9, since the key of “SO” is pressed, the singing voice of the second character “BU” and the pitch of “SO” is synthesized. Sound is emitted from the sound emitting unit 16.

第2鍵盤の「ソ」の鍵を離鍵した後、ユーザは第2鍵盤のいずれかの鍵を押鍵することによって、第3番目の文字「し」の音声を出力する際の音高を指定する。図9に示す例では「ラ」の鍵が押鍵されているため、第3番目の文字「し」の歌唱音声であって、かつ、「ラ」の音高を有する歌唱音声が合成されて放音部16から放音される。   After releasing the “So” key on the second keyboard, the user presses any key on the second keyboard to obtain the pitch when outputting the third character “Shi”. specify. In the example shown in FIG. 9, since the key “La” is pressed, the singing voice of the third character “Shi” and the pitch of “La” is synthesized. Sound is emitted from the sound emitting unit 16.

第2鍵盤の「ラ」の鍵を離鍵した後、ユーザは第2鍵盤のいずれかの鍵を押鍵することによって、第4番目の文字「い」の音声を出力する際の音高を指定する。図9に示す例では「シ」の鍵が押鍵されているため、第4番目の文字「い」の歌唱音声であって、かつ、「シ」の音高を有する歌唱音声が合成されて放音部16から放音される。   After releasing the “L” key on the second keyboard, the user presses any key on the second keyboard to obtain the pitch when the fourth character “I” is output. specify. In the example shown in FIG. 9, since the key of “shi” is pressed, the singing voice of the fourth character “i” and the pitch of “shi” is synthesized. Sound is emitted from the sound emitting unit 16.

次に、第2実施形態の和音情報取得部20、音高情報取得部22、発音内容情報取得部24、歌唱音声出力制御部26、及び歌唱音声合成部28について説明する。ただし、和音情報取得部20及び音高情報取得部22は第1実施形態と同様であるため、ここでは詳細な説明を省略する。   Next, the chord information acquisition unit 20, the pitch information acquisition unit 22, the pronunciation content information acquisition unit 24, the singing voice output control unit 26, and the singing voice synthesis unit 28 of the second embodiment will be described. However, since the chord information acquisition unit 20 and the pitch information acquisition unit 22 are the same as those in the first embodiment, detailed description thereof is omitted here.

発音内容情報取得部24は、例えば図6(又は図7,8)に示すような対応関係データDを参照し、和音情報取得部20によって取得された和音情報に対応付けられた発音文字列(発音内容情報)を取得する。   The pronunciation content information acquisition unit 24 refers to correspondence data D as shown in FIG. 6 (or FIGS. 7 and 8), for example, and generates a pronunciation character string associated with the chord information acquired by the chord information acquisition unit 20 ( Get pronunciation content information).

歌唱音声出力制御部26は、発音内容情報取得部24によって取得された発音文字列の歌唱音声を、音高情報取得部22によって取得される音高情報に対応する音高に従って放音部16から放音させる。例えば、歌唱音声出力制御部26は、発音文字列に含まれる各発音文字の歌唱音声を、各発音文字ごとにユーザによって指定された音高で放音部16から放音させる。歌唱音声出力制御部26は上記のような歌唱音声を歌唱音声合成部28に生成させて、放音部16から放音させる。   The singing voice output control unit 26 outputs the singing voice of the pronunciation character string acquired by the pronunciation content information acquisition unit 24 from the sound emission unit 16 according to the pitch corresponding to the pitch information acquired by the pitch information acquisition unit 22. Let it sound. For example, the singing voice output control unit 26 emits the singing voice of each phonetic character included in the phonetic character string from the sound emitting unit 16 at a pitch specified by the user for each phonetic character. The singing voice output control unit 26 causes the singing voice synthesizing unit 28 to generate the singing voice as described above and emits the sound from the sound emitting unit 16.

次に、第2実施形態の演算処理部10が実行する処理の一例について説明する。図10は第2実施形態の演算処理部10が実行する処理の一例を示すフロー図である。演算処理部10が図10に示す処理をプログラムPGMに従って実行することによって、第2実施形態の和音情報取得部20、音高情報取得部22、発音内容情報取得部24、歌唱音声出力制御部26、及び歌唱音声合成部28が実現される。   Next, an example of processing executed by the arithmetic processing unit 10 according to the second embodiment will be described. FIG. 10 is a flowchart illustrating an example of processing executed by the arithmetic processing unit 10 according to the second embodiment. When the arithmetic processing unit 10 executes the process shown in FIG. 10 according to the program PGM, the chord information acquisition unit 20, the pitch information acquisition unit 22, the pronunciation content information acquisition unit 24, and the singing voice output control unit 26 of the second embodiment. And the singing voice synthesis unit 28 are realized.

図10に示すように、演算処理部10は、第2鍵盤における演奏内容を示す第2演奏操作データに基づいて、第2鍵盤のいずれかの鍵が押鍵されているか否かを判定する(S200)。第2鍵盤のいずれかの鍵が押鍵されていると判定された場合、演算処理部10は、押鍵されている鍵に対応する音高を取得する(S202)。また、演算処理部10は、第1鍵盤における演奏内容を示す第1演奏操作データに基づいて、第1鍵盤においていずれかの和音が演奏されているか否かを判定する(S204)。ステップS200〜S204の処理は図5のステップS100〜S104と同様である。   As shown in FIG. 10, the arithmetic processing unit 10 determines whether or not any key of the second keyboard is pressed based on the second performance operation data indicating the performance content in the second keyboard ( S200). When it is determined that any key of the second keyboard is depressed, the arithmetic processing unit 10 acquires a pitch corresponding to the depressed key (S202). In addition, the arithmetic processing unit 10 determines whether any chord is played on the first keyboard based on the first performance operation data indicating the performance content on the first keyboard (S204). The processing in steps S200 to S204 is the same as that in steps S100 to S104 in FIG.

第1鍵盤において和音が演奏されていると判定された場合、演算処理部10は対応関係データDを参照し、当該和音に対応付けられた発音文字列を取得する(S206)。そして、演算処理部10は、ステップS206で取得された発音文字列の文字数Nを取得する(S208)。また、演算処理部10は変数iを1に初期化する(S210)。   When it is determined that a chord is being played on the first keyboard, the arithmetic processing unit 10 refers to the correspondence data D and acquires a pronunciation character string associated with the chord (S206). Then, the arithmetic processing unit 10 acquires the number N of characters of the pronunciation character string acquired in step S206 (S208). The arithmetic processing unit 10 initializes the variable i to 1 (S210).

次に、演算処理部10は、ステップS206で取得された発音文字列の第i番目の文字の歌唱音声の放音を開始させる(S212)。すなわち、演算処理部10は、ステップS206で取得された発音文字列の第i番目の文字の歌唱音声をステップS202で取得された音高で放音部16から放音させる。例えば、演算処理部10は、ステップS206で取得された発音文字列の第i番目の文字に対応する音声素片の波形データを音声素片群Gから読み出し、ステップS202で取得された音高となるように、読み出した音声素片の波形データにピッチ変換を施す。そして演算処理部10は、ピッチ変換後の波形データに基づいて、歌唱音声を放音部16から放音させる。   Next, the arithmetic processing unit 10 starts sound emission of the singing voice of the i-th character of the phonetic character string acquired in step S206 (S212). That is, the arithmetic processing unit 10 causes the sound emitting unit 16 to emit the singing voice of the i-th character of the pronunciation character string acquired in step S206 at the pitch acquired in step S202. For example, the arithmetic processing unit 10 reads the waveform data of the speech unit corresponding to the i-th character of the phonetic character string acquired in step S206 from the speech unit group G, and the pitch acquired in step S202. Thus, pitch conversion is performed on the waveform data of the read speech unit. Then, the arithmetic processing unit 10 emits the singing sound from the sound emitting unit 16 based on the waveform data after the pitch conversion.

ステップS212が実行された後、演算処理部10は、第2鍵盤で押鍵されていた鍵が離鍵されたか否かを監視する(S214)。第2鍵盤で押鍵されていた鍵が離鍵されたと判定された場合、演算処理部10はステップS212で開始された放音を停止する(S216)。   After step S212 is executed, the arithmetic processing unit 10 monitors whether or not the key pressed on the second keyboard has been released (S214). If it is determined that the key pressed on the second keyboard has been released, the arithmetic processing unit 10 stops the sound emission started in step S212 (S216).

ステップS216が実行された後、演算処理部10は変数iがN未満であるか否かを判定する(S218)。変数iがN未満であると判定された場合、演算処理部10は、第2鍵盤における演奏内容を示す第2演奏操作データに基づいて、第2鍵盤のいずれかの鍵が押鍵されているか否かを判定する(S220)。第2鍵盤のいずれかの鍵が押鍵されていると判定された場合、演算処理部10は、押鍵されている鍵に対応する音高を取得する(S222)。そして、演算処理部10は変数iに1を加算し(S224)、ステップS212を実行する。すなわち、演算処理部10は、ステップS206で取得された発音文字列の第i番目の文字の歌唱音声の放音を開始させる(S212)。この場合、演算処理部10は、ステップS206で取得された発音文字列の第i番目の文字の歌唱音声をステップS222で取得された音高で放音部16から放音させる。その後、演算処理部10はステップS214以降の処理を実行する。   After step S216 is executed, the arithmetic processing unit 10 determines whether or not the variable i is less than N (S218). When it is determined that the variable i is less than N, the arithmetic processing unit 10 determines whether any key of the second keyboard is pressed based on the second performance operation data indicating the performance content of the second keyboard. It is determined whether or not (S220). When it is determined that any key of the second keyboard is depressed, the arithmetic processing unit 10 acquires a pitch corresponding to the depressed key (S222). And the arithmetic processing part 10 adds 1 to the variable i (S224), and performs step S212. That is, the arithmetic processing unit 10 starts sound emission of the singing voice of the i-th character in the pronunciation character string acquired in step S206 (S212). In this case, the arithmetic processing unit 10 causes the sound emitting unit 16 to emit the singing voice of the i-th character of the pronunciation character string acquired in step S206 at the pitch acquired in step S222. Thereafter, the arithmetic processing unit 10 executes the processing after step S214.

ステップS218において変数iがN未満でないと判定される場合とは、ステップS206で取得された発音文字列の歌唱音声の放音が終了した場合である。この場合、演算処理部10はステップS200から処理を再び実行する。なお、ステップS200において第2鍵盤のいずれかの鍵が押鍵されていると判定されなかった場合や、ステップS204において第1鍵盤でいずれかの和音が演奏されていると判定されなかった場合にも、演算処理部10はステップS200から処理を再び実行する。   The case where it is determined in step S218 that the variable i is not less than N is a case where sound emission of the singing voice of the pronunciation character string acquired in step S206 is completed. In this case, the arithmetic processing unit 10 executes the process again from step S200. If it is not determined in step S200 that any key of the second keyboard is pressed, or if it is not determined in step S204 that any chord is played on the first keyboard. In addition, the arithmetic processing unit 10 executes the processing again from step S200.

なお、図10に示す例では、第2鍵盤のいずれかの鍵が押鍵されたと判定された後で、第1鍵盤でいずれかの和音が演奏されているか否かの判定(S204)や、第1鍵盤で演奏されている和音に対応する発音文字列の取得(S206)を実行するようになっていたが、これらの判定や取得は、第2鍵盤のいずれかの鍵が押鍵されたと判定される前に予め実行しておくようにしてもよい。   In the example shown in FIG. 10, after determining that any key of the second keyboard is pressed, it is determined whether any chord is played on the first keyboard (S204), Acquisition of the pronunciation character string corresponding to the chord being played on the first keyboard (S206) was executed, but these determinations and acquisitions were made when any key on the second keyboard was pressed. It may be executed in advance before the determination.

以上に説明した第2実施形態に係る歌唱音声出力制御装置100によれば、第1実施形態と同様、ユーザが和音を演奏することによって歌詞を指定できるようになる。また、歌唱音声出力制御装置100によれば、歌詞を指定するための運指が和音を演奏するための運指となり、通常の演奏で行われる運指となるため、演奏に慣れたユーザにとって歌詞を指定し易くなる。なお、第2実施形態では和音と発音文字列とが対応付けられているため、歌詞を1文字ずつ指定する第1実施形態に比べて、歌詞を指定し易くなる。   According to the singing voice output control apparatus 100 according to the second embodiment described above, the lyrics can be designated by the user playing a chord as in the first embodiment. Also, according to the singing voice output control device 100, the fingering for designating the lyrics becomes fingering for playing the chord and the fingering performed in a normal performance. Is easier to specify. In the second embodiment, since chords and pronunciation character strings are associated with each other, it is easier to specify lyrics compared to the first embodiment in which lyrics are specified one character at a time.

<第3実施形態>
本発明の第3実施形態を以下に説明する。第3実施形態では、同一の和音情報に対して発音内容情報取得部24が取得する発音内容情報が変わるようになっている。
<Third Embodiment>
A third embodiment of the present invention will be described below. In the third embodiment, the pronunciation content information acquired by the pronunciation content information acquisition unit 24 for the same chord information is changed.

図11は、第3実施形態に係る歌唱音声出力制御装置100のブロック図である。図11に示すように、第3実施形態は、対応関係変更部40が演算処理部10に含まれる点で第1実施形態や第2実施形態と相違する。なお、機能や作用が第1実施形態や第2実施形態と異なる構成要素に関して主に説明し、機能や作用が第1実施形態や第2実施形態と同じ構成要素に関しては詳細な説明を省略する。   FIG. 11 is a block diagram of the singing voice output control device 100 according to the third embodiment. As shown in FIG. 11, the third embodiment is different from the first embodiment and the second embodiment in that the correspondence changing unit 40 is included in the arithmetic processing unit 10. Note that components and functions that are different from those of the first and second embodiments will be mainly described, and detailed descriptions of components that have the same functions and operations as those of the first and second embodiments are omitted. .

対応関係変更部40は、和音情報と発音内容情報との対応関係を時間経過に応じて変更する。すなわち、対応関係変更部40は、和音情報に対応付けられる発音内容情報を時間経過に応じて変更する。   The correspondence change unit 40 changes the correspondence between the chord information and the pronunciation content information as time passes. That is, the correspondence changing unit 40 changes the pronunciation content information associated with the chord information as time elapses.

例えば、第3実施形態の記憶部12には対応関係データDが複数記憶される。対応関係変更部40は、時間経過に応じて、発音内容情報取得部24によって参照される対応関係データDを記憶部12に記憶された複数の対応関係データDのうちで切り替える。   For example, a plurality of correspondence data D is stored in the storage unit 12 of the third embodiment. The correspondence change unit 40 switches the correspondence data D referred to by the pronunciation content information acquisition unit 24 among the plurality of correspondence data D stored in the storage unit 12 as time elapses.

例えば、所定時間(所定小節)ごとに、対応関係変更部40は、記憶部12に記憶された複数の対応関係データDのうちのいずれかを選択する。この選択はランダムに実行されてもよいし、予め定められた順序に従って実行されてもよい。また、この場合、発音内容情報取得部24は、対応関係変更部40によって選択された対応関係データDを参照して発音内容情報を取得する。このようにして、第3実施形態では、発音内容情報取得部24が参照する対応関係データDが時間経過に応じて変化する。   For example, for each predetermined time (predetermined measure), the correspondence changing unit 40 selects any one of the plurality of correspondence data D stored in the storage unit 12. This selection may be performed randomly or according to a predetermined order. In this case, the pronunciation content information acquisition unit 24 refers to the correspondence data D selected by the correspondence change unit 40 and acquires the pronunciation content information. In this manner, in the third embodiment, the correspondence data D referred to by the pronunciation content information acquisition unit 24 changes with time.

以上に説明した第3実施形態に係る歌唱音声出力制御装置100によれば、和音と発音内容情報との対応関係を時間経過に応じて変更することによって、歌唱音声の歌詞を変化に富んだものにすることが可能になる。   According to the singing voice output control device 100 according to the third embodiment described above, the lyrics of the singing voice are rich in change by changing the correspondence between chords and pronunciation content information over time. It becomes possible to.

なお、ユーザが入力すべき発音内容情報の時系列データと、ユーザが演奏すべき和音の時系列データとが記憶部12に記憶されるようにしてもよい。例えば、模範歌詞データ(言い換えれば、ユーザが入力すべき発音文字列(発音内容情報)の時系列データ)と、ユーザが演奏すべき和音の時系列データとが記憶部12に記憶されるようにしてもよい。そして、対応関係変更部40は、これらの時系列データに基づいて、対応関係データDを変更するようにしてもよい。   Note that the storage unit 12 may store time series data of pronunciation content information to be input by the user and time series data of chords to be played by the user. For example, model lyrics data (in other words, time-series data of pronunciation character strings (pronunciation content information) to be input by the user) and time-series data of chords to be performed by the user are stored in the storage unit 12. May be. Then, the correspondence changing unit 40 may change the correspondence data D based on these time series data.

例えば、上記の時系列データにおいて、あるタイミングTxでユーザが入力すべき発音文字列(発音内容情報)として発音文字列Sxが定められ、かつ、タイミングTxでユーザが演奏すべき和音として和音Cxが定められている場合、対応関係変更部40は、上記タイミングTxが到来する少し前に、和音Cxに対応付けられた発音文字列(発音内容情報)を発音文字列Sxに変更する。例えば、対応関係変更部40は、上記タイミングTxが到来する少し前に、発音内容情報取得部24によって参照される対応関係データDを、和音Cxに発音文字列Sxが対応付けられた対応関係データDに変更する。   For example, in the above time-series data, a pronunciation character string Sx is defined as a pronunciation character string (pronunciation content information) to be input by a user at a certain timing Tx, and a chord Cx is a chord to be played by the user at the timing Tx. If so, the correspondence changing unit 40 changes the pronunciation character string (pronunciation content information) associated with the chord Cx to the pronunciation character string Sx shortly before the timing Tx arrives. For example, the correspondence relationship changing unit 40 uses the correspondence relationship data D referenced by the pronunciation content information acquisition unit 24 slightly before the timing Tx arrives, and the correspondence relationship data in which the pronunciation character string Sx is associated with the chord Cx. Change to D.

なお、模範歌詞データとして、複数の対応関係データDを切替順序又は切替タイミングを特定可能な形式で記憶しておくようにしてもよい。また、対応関係変更部40は、発音内容情報取得部24によって参照される対応関係データDを、複数の対応関係データDのうちで、切替順序又は切替タイミングに従って切り替えるようにしてもよい。   Note that a plurality of correspondence data D may be stored as model lyric data in a format that can specify the switching order or switching timing. The correspondence change unit 40 may switch the correspondence data D referred to by the pronunciation content information acquisition unit 24 according to the switching order or the switching timing among the plurality of correspondence data D.

この態様では、例えば、ユーザが演奏すべき和音の名称を表示部18に表示することによってユーザに案内する。または例えば、ユーザが押鍵すべき鍵(すなわち、ユーザが演奏すべき和音に対応する鍵)をユーザに案内する。このようにすれば、ユーザは案内に従って第1鍵盤で和音を演奏することによって、模範的な歌詞を指定できるようになる。   In this aspect, for example, the name of the chord to be played by the user is displayed on the display unit 18 to guide the user. Or, for example, the user is guided to a key to be pressed (that is, a key corresponding to a chord to be played by the user). In this way, the user can designate exemplary lyrics by playing chords on the first keyboard according to the guidance.

<第4実施形態>
本発明の第4実施形態を以下に説明する。第3実施形態と同様に、第4実施形態でも、同一の和音情報に対して発音内容情報取得部24が取得する発音内容情報が変わるようになっている。ただし、第4実施形態に係る歌唱音声出力制御装置100のブロック図は第1実施形態や第2実施形態と同様である。以下では、機能や作用が第1実施形態や第2実施形態と異なる構成要素に関して主に説明し、機能や作用が第1実施形態や第2実施形態と同じ構成要素に関しては詳細な説明を省略する。
<Fourth embodiment>
A fourth embodiment of the present invention will be described below. Similarly to the third embodiment, the pronunciation content information acquired by the pronunciation content information acquisition unit 24 for the same chord information is also changed in the fourth embodiment. However, the block diagram of the singing voice output control device 100 according to the fourth embodiment is the same as that of the first embodiment and the second embodiment. In the following description, components and functions that are different from those of the first and second embodiments will be mainly described, and detailed descriptions of components that have the same functions and operations as those of the first and second embodiments will be omitted. To do.

第4実施形態の対応関係データDでは和音と発音内容情報とが1対多で対応付けられる。図12は第4実施形態の対応関係データDの一例を示す。図12に示す対応関係データDでは1つの和音に対して複数の発音文字列(発音内容情報)が対応付けられている。具体的には、図12に示す例では1つの和音に対して3つ発音文字列が対応付けられている。なお、図12に示す例では、日本語の複数の発音文字列が1つの和音に対応付けられているが、図7及び図8に示した例と同様に、日本語以外の言語の複数の発音文字列(発音内容情報)が1つの和音に対応付けられるようにしてもよい。あるいは、日本語以外の言語の複数の発音記号列(発音内容情報)が1つの和音に対応付けられるようにしてもよい。   In the correspondence data D of the fourth embodiment, chords and pronunciation content information are associated one-to-many. FIG. 12 shows an example of the correspondence data D of the fourth embodiment. In the correspondence data D shown in FIG. 12, a plurality of pronunciation character strings (pronunciation content information) are associated with one chord. Specifically, in the example shown in FIG. 12, three pronunciation character strings are associated with one chord. In the example shown in FIG. 12, a plurality of Japanese pronunciation character strings are associated with one chord. However, as in the examples shown in FIGS. A pronunciation character string (pronunciation content information) may be associated with one chord. Alternatively, a plurality of phonetic symbol strings (phonetic content information) in languages other than Japanese may be associated with one chord.

第4実施形態の発音内容情報取得部24は、和音情報取得部20によって取得された和音情報に複数の発音内容情報が対応付けられている場合に、それら複数の発音内容情報のうちいずれかを選択する。   The pronunciation content information acquisition unit 24 of the fourth embodiment, when a plurality of pronunciation content information is associated with the chord information acquired by the chord information acquisition unit 20, selects one of the plurality of pronunciation content information. select.

例えば、図12に示す対応関係データDでは、1つの和音に対して複数の発音文字列が対応付けられているため、和音情報取得部20によって取得された和音情報には複数の発音文字列が対応付けられていることになる。このような場合、発音内容情報取得部24は、それら複数の発音文字列のうちいずれかを選択する。例えば、発音内容情報取得部24は複数の発音文字列のうちのいずれかをランダムに選択する。または、発音内容情報取得部24は、複数の発音文字列のうちのいずれかを、予め定められた順序に従って選択するようにしてもよい。例えば、発音内容情報取得部24は、第1鍵盤で和音「C」の第1回目の演奏が行われた場合に、和音「C」に対応付けられた複数の発音文字列のうちの第1番目の発音文字列を選択し、第1鍵盤で和音「C」の第2回目の演奏が行われた場合に、和音「C」に対応付けられた複数の発音文字列のうちの第2番目の発音文字列を選択するようにしてもよい。このようにして、第1鍵盤で和音「C」が演奏されるごとに、発音内容情報取得部24は、和音「C」に対応付けられた複数の発音文字列のいずれかを予め定められた順序に従って順番に選択するようにしてもよい。   For example, in the correspondence data D shown in FIG. 12, since a plurality of phonetic character strings are associated with one chord, a plurality of phonetic character strings are included in the chord information acquired by the chord information acquisition unit 20. It will be associated. In such a case, the pronunciation content information acquisition unit 24 selects any one of the plurality of pronunciation character strings. For example, the pronunciation content information acquisition unit 24 randomly selects one of a plurality of pronunciation character strings. Alternatively, the pronunciation content information acquisition unit 24 may select any one of the plurality of pronunciation character strings in accordance with a predetermined order. For example, when the first performance of the chord “C” is performed on the first keyboard, the pronunciation content information acquisition unit 24 selects the first of the plurality of pronunciation character strings associated with the chord “C”. When the second pronunciation character string is selected and the second performance of the chord “C” is performed on the first keyboard, the second pronunciation character string associated with the chord “C” is selected. The pronunciation character string may be selected. In this way, each time the chord “C” is played on the first keyboard, the pronunciation content information acquisition unit 24 determines in advance one of a plurality of pronunciation character strings associated with the chord “C”. You may make it select in order according to order.

第4実施形態においても図10に示すような処理が実行される。ただし、第4実施形態では、ステップS206において、演算処理部10は対応関係データDを参照し、当該和音に対応付けられた複数の発音文字列のいずれかを選択して取得する。   Also in the fourth embodiment, the processing as shown in FIG. 10 is executed. However, in the fourth embodiment, in step S <b> 206, the arithmetic processing unit 10 refers to the correspondence data D and selects and acquires one of a plurality of pronunciation character strings associated with the chord.

以上に説明した第4実施形態に係る歌唱音声出力制御装置100によれば、第3実施形態と同様、歌唱音声の歌詞を変化に富んだものにすることが可能になる。   According to the singing voice output control apparatus 100 according to the fourth embodiment described above, it is possible to make the lyrics of the singing voice rich in change as in the third embodiment.

なお、第4実施形態では、発音内容情報の選択履歴を示す選択履歴データが記憶部12に記憶されるようにしてもよい。また、発音内容情報取得部24は、和音情報取得部20によって取得された和音情報に複数の発音内容情報が対応付けられている場合に、それら複数の発音内容情報のうちいずれかを、選択履歴データに基づいて選択するようにしてもよい。   In the fourth embodiment, selection history data indicating a selection history of pronunciation content information may be stored in the storage unit 12. In addition, the pronunciation content information acquisition unit 24 selects one of the plurality of pronunciation content information as a selection history when a plurality of pronunciation content information is associated with the chord information acquired by the chord information acquisition unit 20. You may make it select based on data.

図13は選択履歴データの一例を示す。図13に示す例では和音ごとに発音文字列(発音内容情報)の選択履歴が記憶されている。例えば、和音「C」に関連付けて、和音「C」に対応付けられた発音文字列の選択履歴が記憶されている。図13に示す例において、例えば、選択履歴「1,3」は、第1番目の発音文字列が選択され、その後、第3番目の発音文字列が選択されたことを示している。   FIG. 13 shows an example of selection history data. In the example shown in FIG. 13, a selection history of a pronunciation character string (pronunciation content information) is stored for each chord. For example, a selection history of the pronunciation character string associated with the chord “C” is stored in association with the chord “C”. In the example shown in FIG. 13, for example, the selection history “1, 3” indicates that the first pronunciation character string is selected and then the third pronunciation character string is selected.

この場合、発音内容情報取得部24は、和音情報取得部20によって取得された和音情報に複数の発音文字列(発音内容情報)が対応付けられている場合に、それら複数の発音文字列のうちいずれかを、図13に示す選択履歴データに基づいて選択するようにしてもよい。   In this case, the pronunciation content information acquisition unit 24, when a plurality of pronunciation character strings (pronunciation content information) are associated with the chord information acquired by the chord information acquisition unit 20, among the plurality of pronunciation character strings. Either of them may be selected based on the selection history data shown in FIG.

例えば、発音内容情報取得部24は、前回選択されていない発音文字列を、前回選択された発音文字列よりも優先的に選択するようにしてもよい。具体的には、発音内容情報取得部24は、前回選択されていない発音文字列を選択し、前回選択された発音文字列を選択しないようにしてもよい。または、発音内容情報取得部24は、前回選択されていない発音文字列が選択される確率が、前回選択された発音文字列が選択される確率よりも高くなるようにして確率情報を設定した上で、複数の発音文字列のうちのいずれかを確率情報に基づいて選択するようにしてもよい。   For example, the pronunciation content information acquisition unit 24 may preferentially select a pronunciation character string that has not been previously selected over a previously selected pronunciation character string. Specifically, the pronunciation content information acquisition unit 24 may select a pronunciation character string that has not been previously selected, and may not select a previously selected pronunciation character string. Alternatively, the pronunciation content information acquisition unit 24 sets the probability information so that the probability that a pronunciation character string that has not been selected last time is selected is higher than the probability that a pronunciation character string selected last time is selected. Thus, any one of the plurality of pronunciation character strings may be selected based on the probability information.

また例えば、発音内容情報取得部24は、選択回数が少ない発音文字列を、選択回数が多い発音文字列よりも優先的に選択するようにしてもよい。具体的には、発音内容情報取得部24は、選択回数が最も少ない発音文字列を選択するようにしてもよい。または、発音内容情報取得部24は、選択回数が少ない発音文字列ほど、選択される確率が高くなるようにして確率情報を設定した上で、複数の発音文字列のうちのいずれかを確率情報に基づいて選択するようにしてもよい。   Further, for example, the pronunciation content information acquisition unit 24 may select a pronunciation character string with a small number of selections more preferentially than a pronunciation character string with a large number of selections. Specifically, the pronunciation content information acquisition unit 24 may select a pronunciation character string with the smallest number of selections. Alternatively, the pronunciation content information acquisition unit 24 sets probability information so that a pronunciation character string having a smaller number of selections has a higher probability of being selected, and then selects one of the plurality of pronunciation character strings as probability information. You may make it select based on.

このようにすれば、同じ発音文字列(発音内容情報)が繰り返し選択され難くなるため、歌唱音声の歌詞をより変化に富んだものにすることが可能になる。   In this way, it is difficult to repeatedly select the same pronunciation character string (pronunciation content information), so that the lyrics of the singing voice can be made more varied.

<第5実施形態>
本発明の第5実施形態を以下に説明する。第5実施形態ではユーザが任意の歌詞(発音内容情報)を対応関係データDに登録できるようになっている。
<Fifth Embodiment>
A fifth embodiment of the present invention will be described below. In the fifth embodiment, the user can register arbitrary lyrics (pronunciation content information) in the correspondence data D.

図14は、第5実施形態に係る歌唱音声出力制御装置100のブロック図である。図14に示すように、第5実施形態は、登録受付部50及び発音内容情報登録部52が演算処理部10に含まれる点で第1実施形態〜第4実施形態と相違する。以下、機能や作用が第1実施形態〜第4実施形態と異なる構成要素に関して主に説明し、機能や作用が第1実施形態〜第4実施形態と同じ構成要素に関しては詳細な説明を省略する。   FIG. 14 is a block diagram of the singing voice output control device 100 according to the fifth embodiment. As shown in FIG. 14, the fifth embodiment is different from the first to fourth embodiments in that a registration receiving unit 50 and a pronunciation content information registration unit 52 are included in the arithmetic processing unit 10. Hereinafter, functions and operations will be mainly described with respect to components that are different from those of the first to fourth embodiments, and detailed descriptions will be omitted with respect to components that have the same functions and operations as those of the first to fourth embodiments. .

登録受付部50は新たな発音内容情報の登録を受け付ける。例えば、登録受付部50は、発音文字列(発音内容情報)の入力を受け付けるための画面を表示部18に表示する。また、登録受付部50は当該画面で入力された発音文字列を取得する。   The registration accepting unit 50 accepts registration of new pronunciation content information. For example, the registration receiving unit 50 displays a screen for receiving an input of a pronunciation character string (pronunciation content information) on the display unit 18. In addition, the registration receiving unit 50 acquires the pronunciation character string input on the screen.

発音内容情報登録部52は新たな発音内容情報を対応関係データDに登録する。発音内容情報登録部52は新たな発音内容情報をどの和音情報に対応付けるかを決定する。発音内容情報登録部52は、新たな発音内容情報を対応付ける和音情報を、当該新たな発音内容情報が示す発音内容に基づいて決定する。   The pronunciation content information registration unit 52 registers new pronunciation content information in the correspondence data D. The pronunciation content information registration unit 52 determines to which chord information the new pronunciation content information is associated. The pronunciation content information registration unit 52 determines the chord information associated with the new pronunciation content information based on the pronunciation content indicated by the new pronunciation content information.

例えば、新たな発音文字列(発音内容情報)が明るい内容を有している場合(言い換えれば、新たな発音文字列の内容が明るい印象を聞き手に与えるような内容である場合)、発音内容情報登録部52は、明るい印象を聞き手に与えるような和音(例えばメジャーコードの和音)を、当該新たな発音文字列を対応付ける和音として決定する。   For example, when the new pronunciation character string (pronunciation content information) has bright content (in other words, when the content of the new pronunciation character string is a content that gives a bright impression to the listener), the pronunciation content information The registration unit 52 determines a chord that gives a bright impression to the listener (for example, a chord of a major chord) as a chord associated with the new pronunciation character string.

例えば、第5実施形態の記憶部12には、明るい印象を聞き手に与えるキーワード群が記憶される。発音内容情報登録部52は上記キーワードが新たな発音文字列に含まれているか否かを判定する。そして、上記キーワードが新たな発音文字列に含まれていれば、発音内容情報登録部52は、当該キーワードに対応する和音に、当該新たな発音文字列を対応付ける。すなわち、発音内容情報登録部52は新たな発音文字列が明るい内容を有していると判定して、明るい印象を聞き手に与えるような和音(例えばメジャーコードの和音)に当該新たな発音文字列を対応付ける。   For example, the storage unit 12 of the fifth embodiment stores a keyword group that gives a bright impression to the listener. The pronunciation content information registration unit 52 determines whether or not the keyword is included in a new pronunciation character string. If the keyword is included in the new pronunciation character string, the pronunciation content information registration unit 52 associates the new pronunciation character string with the chord corresponding to the keyword. That is, the pronunciation content information registration unit 52 determines that the new pronunciation character string has bright content, and adds the new pronunciation character string to a chord (for example, a chord of a major chord) that gives a bright impression to the listener. Associate.

一方、新たな発音文字列(発音内容情報)が暗い内容を有している場合(言い換えれば、新たな発音文字列の内容が暗い印象を聞き手に与えるような内容である場合)、発音内容情報登録部52は、暗い印象を聞き手に与えるような和音(例えばマイナーコードの和音)を、当該新たな発音文字列を対応付ける和音として決定する。   On the other hand, if the new pronunciation character string (pronunciation content information) has a dark content (in other words, the content of the new pronunciation character string is a content that gives a dark impression to the listener), the pronunciation content information The registration unit 52 determines a chord that gives a dark impression to the listener (for example, a chord of a minor chord) as a chord associated with the new pronunciation character string.

例えば、第5実施形態の記憶部12には、暗い印象を聞き手に与えるキーワード群が記憶される。発音内容情報登録部52は上記キーワードが新たな発音文字列に含まれているか否かを判定する。そして、上記キーワードが新たな発音文字列に含まれていれば、発音内容情報登録部52は、当該キーワードに対応する和音に、当該新たな発音文字列を対応付ける。すなわち、発音内容情報登録部52は新たな発音文字列が暗い内容を有していると判定して、暗い印象を聞き手に与えるような和音(例えばマイナーコードの和音)に当該新たな発音文字列を対応付ける。   For example, the storage unit 12 of the fifth embodiment stores a keyword group that gives a dark impression to the listener. The pronunciation content information registration unit 52 determines whether or not the keyword is included in a new pronunciation character string. If the keyword is included in the new pronunciation character string, the pronunciation content information registration unit 52 associates the new pronunciation character string with the chord corresponding to the keyword. That is, the pronunciation content information registration unit 52 determines that the new pronunciation character string has dark content, and adds the new pronunciation character string to a chord (for example, a chord of a minor chord) that gives a dark impression to the listener. Associate.

以上に説明した第5実施形態に係る歌唱音声出力制御装置100によれば、ユーザが任意の歌詞(発音内容情報)を対応関係データDに登録できるようになる。さらに、第5実施形態に係る歌唱音声出力制御装置100によれば、ユーザが入力した歌詞が内容が聞き手に与える印象と、和音が聞き手に与える印象と、が対応するようにして、歌詞が和音が対応付けられるため、ユーザは自らの入力した歌詞のうちの所望の内容の歌詞(例えば明るい内容の歌詞又は暗い内容の歌詞)を指定し易くなる。   According to the singing voice output control apparatus 100 according to the fifth embodiment described above, the user can register arbitrary lyrics (pronunciation content information) in the correspondence data D. Furthermore, according to the singing voice output control apparatus 100 according to the fifth embodiment, the lyrics are chords such that the lyrics input by the user correspond to the impression that the content gives to the listener and the impression that the chord gives to the listener. Are associated with each other, it is easy for the user to specify lyrics having desired contents (for example, lyrics having bright contents or lyrics having dark contents) among the lyrics inputted by the user.

<変形例>
本発明は以上説明した第1実施形態〜第5実施形態に限定されるものではない。
<Modification>
The present invention is not limited to the first to fifth embodiments described above.

(1)対応関係データDは図2,6〜8,12に示した例に限られない。例えば、図2に示す対応関係データDでは、日本語における文字や文字連鎖(音素連鎖)の出現頻度等を考慮して、発音文字と和音とを対応付けるようにしてもよい。具体的には、使用頻度の高い発音文字を、演奏し易い和音に対応付けるようにしてもよい。   (1) Correspondence relationship data D is not limited to the examples shown in FIGS. For example, in the correspondence data D shown in FIG. 2, phonetic characters and chords may be associated in consideration of the appearance frequency of characters and character chains (phoneme chains) in Japanese. Specifically, pronunciation characters that are frequently used may be associated with chords that are easy to play.

また例えば、和音の転回形を別の発音文字又は発音文字列に対応付けるようにしてもよい。例えば、図2に示す対応関係データDでは和音「C」が発音文字「あ」に対応付けられているが、和音「C」の第1転回形を別の発音文字(例えば「か」)に対応付け、和音「C」の第2転回形をさらに別の発音文字(例えば「さ」)に対応付けるようにしてもよい。   Further, for example, a chord inversion may be associated with another pronunciation character or pronunciation character string. For example, in the correspondence data D shown in FIG. 2, the chord “C” is associated with the phonetic character “a”, but the first inverted form of the chord “C” is changed to another phonetic character (for example, “ka”). The second inverted form of the association and chord “C” may be associated with another pronunciation character (for example, “sa”).

また例えば、図2,6〜8,12に示した例では用いていない和音を用いるようにしてもよい。例えば、和音「Cm」と「Cm7」はユーザによっては区別し難い場合があるため、他の和音「Csus4」,「C−5」,又は「Comit3」等を用いるようにしてもよい。例えば、図2に示す対応関係データDでは発音文字「あ」,「い」,「う」,「え」,「お」に和音「C」,「Cm」,「Comit3」,「Csus4」,「C−5」をそれぞれ対応付けるようにしてもよい。   Further, for example, chords that are not used in the examples shown in FIGS. For example, since the chords “Cm” and “Cm7” may be difficult to distinguish depending on the user, other chords “Csus4”, “C-5”, or “Commit3” may be used. For example, in the correspondence data D shown in FIG. 2, the phonetic characters “A”, “I”, “U”, “E”, “O” are mixed with chords “C”, “Cm”, “Commit3”, “Csus4”, “C-5” may be associated with each other.

(2)以上では、歌唱音声出力制御装置100を電子オルガンによって実現する場合について主に説明したが、歌唱音声出力制御装置100は電子オルガン以外の電子楽器によって実現することも可能である。   (2) In the above, the case where the singing voice output control device 100 is realized by an electronic organ has been mainly described. However, the singing voice output control device 100 can also be realized by an electronic musical instrument other than the electronic organ.

(2−1)例えば、歌唱音声出力制御装置100は電子ピアノ等の鍵盤楽器によって実現することが可能である。   (2-1) For example, the singing voice output control device 100 can be realized by a keyboard instrument such as an electronic piano.

なお、鍵盤楽器が一つの鍵盤のみを有している場合には、発音文字又は発音文字列を指定するための和音の演奏操作と、発音文字又は発音文字列を放音する際の音高を指定するための演奏操作との両方を一つの鍵盤を用いて行うことになる。この場合、例えば図15に示すように、一つの鍵盤を音域によって分けるようにしてもよい。図15に示す例では、所定の音高(例えばC3)未満の音域に対応する鍵群(操作子群)が前者の演奏操作を行うための領域として設定されている。一方、所定の音高(例えばC3)以上の音域に対応する鍵群(操作子群)が後者の演奏操作を行うための領域として設定されている。この場合、所定の音高(例えばC3)未満の音域に対応する鍵群が図1等に示す第1操作部30に相当し、所定の音高(例えばC3)以上の音域に対応する鍵群が図1等に示す第2操作部32に相当する。   If the keyboard instrument has only one keyboard, the chord playing operation to specify the pronunciation character or the pronunciation string and the pitch when the pronunciation character or the pronunciation string is emitted Both the performance operation for designating is performed using a single keyboard. In this case, for example, as shown in FIG. 15, one keyboard may be divided according to the sound range. In the example shown in FIG. 15, a key group (operator group) corresponding to a pitch range lower than a predetermined pitch (for example, C3) is set as a region for performing the former performance operation. On the other hand, a key group (operator group) corresponding to a range above a predetermined pitch (for example, C3) is set as an area for performing the latter performance operation. In this case, a key group corresponding to a range below a predetermined pitch (for example, C3) corresponds to the first operation unit 30 shown in FIG. 1 and the like, and a key group corresponding to a range above a predetermined pitch (for example, C3). Corresponds to the second operation unit 32 shown in FIG.

(2−2)また例えば、歌唱音声出力制御装置100は電子ギター等の弦楽器によって実現することも可能である。例えば、MIDI形式に対応した電子ギターによって実現することも可能である。   (2-2) Also, for example, the singing voice output control device 100 can be realized by a stringed instrument such as an electronic guitar. For example, it can be realized by an electronic guitar compatible with the MIDI format.

なお、この場合、例えば、一部の弦(操作子群)を、発音文字又は発音文字列を指定するための和音の演奏操作に用い、残りの弦(操作子群)を、発音文字又は発音文字列を放音する際の音高を指定するための演奏操作に用いるようにすればよい。具体的には、例えば、第1弦〜第5弦を前者の演奏操作に用い、第6弦を後者の演奏操作に用いるようにしてもよい。この場合、第1弦〜第5弦が図1等に示す第1操作部30に相当し、第6弦が図1等に示す第2操作部32に相当する。   In this case, for example, a part of strings (operator group) is used for a chord playing operation for designating a pronunciation character or a pronunciation character string, and the remaining strings (operation group) are used as a pronunciation character or a pronunciation. What is necessary is just to use it for performance operation for designating the pitch at the time of emitting a character string. Specifically, for example, the first to fifth strings may be used for the former performance operation, and the sixth string may be used for the latter performance operation. In this case, the first to fifth strings correspond to the first operation unit 30 shown in FIG. 1 and the like, and the sixth string corresponds to the second operation unit 32 shown in FIG. 1 and the like.

あるいは、例えば、ネック部分の第1弦〜第6弦を前者の演奏操作に用い、ボディ部分の第1弦〜第6弦を後者の演奏操作に用いるようにしてもよい。この場合、ネック部分の第1弦〜第6弦が図1等に示す第1操作部30に相当し、ボディ部分の第1弦〜第6弦が図1等に示す第2操作部32に相当する。なお、この場合、第1弦〜第6弦を弾く強さによって、発音文字又は発音文字列を放音する際の音高が指定されるようにしてもよい。   Alternatively, for example, the first to sixth strings of the neck portion may be used for the former performance operation, and the first to sixth strings of the body portion may be used for the latter performance operation. In this case, the first to sixth strings of the neck portion correspond to the first operation unit 30 shown in FIG. 1 and the like, and the first to sixth strings of the body portion correspond to the second operation unit 32 shown in FIG. Equivalent to. In this case, the pitch at which the phonetic character or the phonetic character string is emitted may be specified by the strength of playing the first to sixth strings.

(2−3)なお例えば、歌唱音声出力制御装置100はグロッケン、マリンバ、又は木琴等の打楽器によって実現するようにしてもよい。この場合、例えば、センサを設置することによって演奏内容を取得するようにしてもよい。   (2-3) For example, the singing voice output control apparatus 100 may be realized by a percussion instrument such as glocken, marimba, or xylophone. In this case, for example, the performance content may be acquired by installing a sensor.

(3)歌唱音声出力制御装置100は、電子楽器とインタフェースを介して接続された情報処理装置によって実現することも可能である。すなわち、以上では、演算処理部10と記憶部12と放音部16と表示部18が電子楽器に内蔵されている場合について説明したが、演算処理部10と記憶部12と放音部16と表示部18は、電子楽器とインタフェースを介して接続された情報処理装置に備えられるようにしてもよい。この場合、電子楽器で行われた演奏操作を示す演奏操作データがインタフェースを介して情報処理装置に供給され、情報処理装置では当該演奏操作データに基づいて処理が実行される。   (3) The singing voice output control device 100 can also be realized by an information processing device connected to an electronic musical instrument via an interface. That is, the case where the arithmetic processing unit 10, the storage unit 12, the sound emitting unit 16, and the display unit 18 are incorporated in the electronic musical instrument has been described above. The display unit 18 may be provided in an information processing apparatus connected to an electronic musical instrument via an interface. In this case, performance operation data indicating a performance operation performed on the electronic musical instrument is supplied to the information processing apparatus via the interface, and the information processing apparatus executes processing based on the performance operation data.

(4)歌唱音声出力制御装置100は情報処理装置単体によって実現することも可能である。すなわち、演算処理部10と記憶部12と操作部14と放音部16と表示部18は情報処理装置に備えられるようにしてもよい。   (4) The singing voice output control device 100 can also be realized by a single information processing device. That is, the arithmetic processing unit 10, the storage unit 12, the operation unit 14, the sound emitting unit 16, and the display unit 18 may be provided in the information processing apparatus.

例えば、歌唱音声出力制御装置100は、タッチパネルを備えた情報処理装置(パーソナルコンピュータ、携帯電話、携帯情報端末、又はゲーム機等)によって実現することも可能である。この場合、仮想的な演奏操作子群をタッチパネルに表示することによって、演奏操作を受け付けるようにしてもよい。   For example, the singing voice output control device 100 can be realized by an information processing device (a personal computer, a mobile phone, a portable information terminal, a game machine, or the like) provided with a touch panel. In this case, a performance operation may be received by displaying a virtual performance operator group on the touch panel.

例えば、仮想的な2つの鍵盤をタッチパネルに表示するようにしてもよい。この場合、電子オルガンの場合と同様に、一方の鍵盤を、発音文字又は発音文字列を指定するための和音の演奏操作に用い、他方の鍵盤を、発音文字又は発音文字列を放音する際の音高を指定するための演奏操作に用いるようにしてもよい。なお、この場合、タッチパネルが図1等に示す操作部14に相当し、タッチパネルに表示された一方の鍵盤(言い換えれば、タッチパネル内の一方の鍵盤が表示されている部分)が図1等に示す第1操作部30に相当し、タッチパネルに表示された他方の鍵盤(言い換えれば、タッチパネル内の他方の鍵盤が表示されている部分)が図1等に示す第2操作部32に相当する。   For example, two virtual keys may be displayed on the touch panel. In this case, as in the case of an electronic organ, one key is used for playing chords to specify pronunciation characters or pronunciation strings, and the other keyboard is used to emit pronunciation characters or pronunciation strings. You may make it use for the performance operation for designating the pitch of. In this case, the touch panel corresponds to the operation unit 14 shown in FIG. 1 and the like, and one key displayed on the touch panel (in other words, the part where one key in the touch panel is displayed) is shown in FIG. The other keyboard corresponding to the first operation unit 30 (in other words, the portion where the other keyboard is displayed in the touch panel) corresponds to the second operation unit 32 shown in FIG.

なお、例えば、仮想的な1つの鍵盤をタッチパネルに表示するようにしてもよいし、仮想的な複数の弦をタッチパネルに表示するようにしてもよい。   For example, one virtual keyboard may be displayed on the touch panel, or a plurality of virtual strings may be displayed on the touch panel.

(5)記憶部12に記憶されるデータ(音声素片群Gや対応関係データD)の全部又は一部は、歌唱音声出力制御装置100と通信ネットワークを介して通信可能な他の装置に記憶されていてもよい。   (5) All or part of the data (speech segment group G or correspondence data D) stored in the storage unit 12 is stored in another device that can communicate with the singing voice output control device 100 via a communication network. May be.

(6)歌唱音声合成部28及び放音部16は、和音情報取得部20、音高情報取得部22、発音内容情報取得部24、及び歌唱音声出力制御部26を備える装置と通信ネットワークを介して通信可能な他の装置において備えられてもよい。すなわち、歌唱音声出力制御部26は、通信ネットワークを介して、歌唱音声合成部28に歌唱音声を生成させて放音部16から放音させるようにしてもよい。   (6) The singing voice synthesizing unit 28 and the sound emitting unit 16 are connected to a device including a chord information acquiring unit 20, a pitch information acquiring unit 22, a pronunciation content information acquiring unit 24, and a singing voice output control unit 26 via a communication network. It may be provided in other devices that can communicate with each other. That is, the singing voice output control unit 26 may cause the singing voice synthesizing unit 28 to generate a singing voice and emit the sound from the sound emitting unit 16 via the communication network.

(7)歌唱音声合成部28によって生成された歌唱音声を示すデータを記憶部12に保存するようにしてもよい。例えば、ユーザによって指定された歌詞及び音高を示すデータを記憶部12に保存するようにしてもよい。このようにすることによって、ユーザが後で歌唱音声を任意に再生できるようにしてもよい。   (7) Data indicating the singing voice generated by the singing voice synthesizing unit 28 may be stored in the storage unit 12. For example, data indicating lyrics and pitch designated by the user may be stored in the storage unit 12. In this way, the user may arbitrarily reproduce the singing voice later.

(8)以上では、主に日本語の歌詞を入力する場合について説明したが、先述した通り、本発明は日本語以外の歌詞を入力する場合にも適用することができる。   (8) Although the case where Japanese lyrics are mainly input has been described above, as described above, the present invention can also be applied when inputting lyrics other than Japanese.

10 演算処理部、12 記憶部、14 操作部、16 放音部、18 表示部、20 和音情報取得部、22 音高情報取得部、24 発音内容情報取得部、26 歌唱音声出力制御部、28 歌唱音声合成部、30 第1操作部、32 第2操作部、40 対応関係変更部、50 登録受付部、52 発音内容情報登録部、D 対応関係データ、G 音声素片群、PGM プログラム。   10 arithmetic processing units, 12 storage units, 14 operation units, 16 sound emission units, 18 display units, 20 chord information acquisition units, 22 pitch information acquisition units, 24 pronunciation content information acquisition units, 26 singing voice output control units, 28 Singing voice synthesis unit, 30 first operation unit, 32 second operation unit, 40 correspondence changing unit, 50 registration receiving unit, 52 pronunciation content information registering unit, D correspondence data, G speech segment group, PGM program.

Claims (6)

第1操作部を用いて入力された和音を示す和音情報を取得する和音情報取得手段と、
第2操作部を用いて入力された音高を示す音高情報を取得する音高情報取得手段と、
和音情報と、発音内容を示す発音内容情報と、を対応付けてなる対応関係データに基づいて、前記和音情報取得手段によって取得された和音情報に対応付けられた発音内容情報を取得する発音内容情報取得手段と、
前記発音内容情報取得手段によって取得される発音内容情報と、前記音高情報取得手段によって取得される音高情報とに基づいて、歌唱音声を出力手段から出力させる歌唱音声出力制御手段と、
を含み、
同一の前記和音情報に対して前記発音内容情報取得手段が取得する発音内容情報が変わる、
ことを特徴とする歌唱音声出力制御装置。
Chord information acquisition means for acquiring chord information indicating a chord input using the first operation unit;
Pitch information acquisition means for acquiring pitch information indicating the pitch input using the second operation unit;
The pronunciation content information for acquiring the pronunciation content information associated with the chord information acquired by the chord information acquisition means based on the correspondence data in which the chord information and the pronunciation content information indicating the pronunciation content are associated with each other Acquisition means;
Based on the pronunciation content information acquired by the pronunciation content information acquisition means and the pitch information acquired by the pitch information acquisition means, singing voice output control means for outputting a singing voice from the output means,
Only including,
The pronunciation content information acquired by the pronunciation content information acquisition means for the same chord information changes,
The singing voice output control apparatus characterized by the above.
請求項1に記載の歌唱音声出力制御装置において、
前記和音情報に対応付けられる前記発音内容情報を時間経過に応じて変更する対応関係変更手段を含む、
ことを特徴とする歌唱音声出力制御装置。
In the singing voice output control device according to claim 1 ,
Correspondence relationship changing means for changing the pronunciation content information associated with the chord information as time elapses;
The singing voice output control apparatus characterized by the above.
請求項2に記載の歌唱音声出力制御装置において、
前記対応関係変更手段は、入力されるべき和音情報を時系列で示すデータと、発音されるべき発音内容情報を時系列で示すデータとに基づいて、前記和音情報に対応付けられる前記発音内容情報を時間経過に応じて変更する、
ことを特徴とする歌唱音声出力制御装置。
In the singing voice output control device according to claim 2 ,
The correspondence changing means is adapted to generate the pronunciation content information associated with the chord information based on data indicating the chord information to be input in time series and data indicating the pronunciation content information to be pronounced in time series. Change over time,
The singing voice output control apparatus characterized by the above.
請求項1乃至3のいずれかに記載の歌唱音声出力制御装置において、
前記対応関係データでは、一つの和音情報に対して複数の発音内容情報が対応付けられており、
前記発音内容情報取得手段は、前記和音情報取得手段によって取得される和音情報に複数の発音内容情報が対応付けられている場合に、当該複数の発音内容情報のうちのいずれかを選択する、
ことを特徴とする歌唱音声出力制御装置。
In the singing voice output control device according to any one of claims 1 to 3 ,
In the correspondence data, a plurality of pronunciation content information is associated with one chord information,
The pronunciation content information acquisition unit selects one of the plurality of pronunciation content information when a plurality of pronunciation content information is associated with the chord information acquired by the chord information acquisition unit.
The singing voice output control apparatus characterized by the above.
請求項1乃至4のいずれかに記載の歌唱音声出力制御装置において、In the singing voice output control device according to any one of claims 1 to 4,
前記歌唱音声出力制御手段は、前記第2操作部を用いて音高が入力された場合に、前記音高が入力された時点における前記取得される発音内容情報が示す発音内容の歌唱音声を、前記取得される音高情報に対応する音高で前記出力手段から出力させる、The singing voice output control means, when a pitch is input using the second operation unit, the singing voice of the pronunciation content indicated by the acquired pronunciation content information at the time when the pitch is input, Outputting from the output means at a pitch corresponding to the acquired pitch information;
ことを特徴とする歌唱音声出力制御装置。The singing voice output control apparatus characterized by the above.
第1操作部を用いて入力された和音を示す和音情報を取得する和音情報取得ステップと、A chord information acquisition step of acquiring chord information indicating a chord input using the first operation unit;
第2操作部を用いて入力された音高を示す音高情報を取得する音高情報取得ステップと、A pitch information acquisition step for acquiring pitch information indicating a pitch input using the second operation unit;
和音情報と、発音内容を示す発音内容情報と、を対応付けてなる対応関係データに基づいて、前記和音情報取得ステップによって取得された和音情報に対応付けられた発音内容情報を取得する発音内容情報取得ステップと、The pronunciation content information for acquiring the pronunciation content information associated with the chord information acquired by the chord information acquisition step based on the correspondence data in which the chord information and the pronunciation content information indicating the pronunciation content are associated with each other An acquisition step;
前記発音内容情報取得ステップによって取得される発音内容情報と、前記音高情報取得ステップによって取得される音高情報とに基づいて、歌唱音声を出力手段から出力させる歌唱音声出力制御ステップと、を含み、A singing voice output control step of outputting a singing voice from the output means based on the pronunciation content information acquired by the pronunciation content information acquisition step and the pitch information acquired by the pitch information acquisition step. ,
同一の前記和音情報に対して前記発音内容情報取得ステップにおいて取得される発音内容情報が変わる、The pronunciation content information acquired in the pronunciation content information acquisition step for the same chord information changes.
ことを特徴とする歌唱音声出力制御方法。The singing voice output control method characterized by this.
JP2015114309A 2015-06-04 2015-06-04 Singing voice output control device Active JP6617441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015114309A JP6617441B2 (en) 2015-06-04 2015-06-04 Singing voice output control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015114309A JP6617441B2 (en) 2015-06-04 2015-06-04 Singing voice output control device

Publications (2)

Publication Number Publication Date
JP2017003625A JP2017003625A (en) 2017-01-05
JP6617441B2 true JP6617441B2 (en) 2019-12-11

Family

ID=57752156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015114309A Active JP6617441B2 (en) 2015-06-04 2015-06-04 Singing voice output control device

Country Status (1)

Country Link
JP (1) JP6617441B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367641B2 (en) * 2020-09-08 2023-10-24 カシオ計算機株式会社 Electronic musical instruments, methods and programs

Also Published As

Publication number Publication date
JP2017003625A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
US10002604B2 (en) Voice synthesizing method and voice synthesizing apparatus
JP7088159B2 (en) Electronic musical instruments, methods and programs
CN107430849B (en) Sound control device, sound control method, and computer-readable recording medium storing sound control program
JP7036141B2 (en) Electronic musical instruments, methods and programs
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
US11854521B2 (en) Electronic musical instruments, method and storage media
CN113874932A (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
JP6617441B2 (en) Singing voice output control device
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP2018159741A (en) Song lyrics candidate output device, electric musical instrument, song lyrics candidate output method, and program
JP6809608B2 (en) Singing sound generator and method, program
JP2020144346A (en) Information processing apparatus, information processing method, performance data display system, and program
KR100382079B1 (en) Apparatus and control method for portable information terminal using music
WO2023120121A1 (en) Consonant length changing device, electronic musical instrument, musical instrument system, method, and program
Ballard Jr Extended Harmonic Techniques: Acoustic Principles for Composition and Musicianship
Kent Towards a Performance of Tazul Izan Tajuddin's Kabus Pantun (2018).
JP2021149043A (en) Electronic musical instrument, method, and program
JP5845857B2 (en) Parameter extraction device, speech synthesis system
CN110720122A (en) Sound generating device and method
WO2019003348A1 (en) Singing sound effect generation device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R151 Written notification of patent or utility model registration

Ref document number: 6617441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151