JP6341050B2 - Performance support device - Google Patents

Performance support device Download PDF

Info

Publication number
JP6341050B2
JP6341050B2 JP2014212112A JP2014212112A JP6341050B2 JP 6341050 B2 JP6341050 B2 JP 6341050B2 JP 2014212112 A JP2014212112 A JP 2014212112A JP 2014212112 A JP2014212112 A JP 2014212112A JP 6341050 B2 JP6341050 B2 JP 6341050B2
Authority
JP
Japan
Prior art keywords
character string
candidate character
key
lyrics
keys
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014212112A
Other languages
Japanese (ja)
Other versions
JP2016080868A (en
Inventor
入山 達也
達也 入山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014212112A priority Critical patent/JP6341050B2/en
Publication of JP2016080868A publication Critical patent/JP2016080868A/en
Application granted granted Critical
Publication of JP6341050B2 publication Critical patent/JP6341050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽器を演奏するかのような操作で歌唱音声を発生させる技術に関する。   The present invention relates to a technique for generating a singing voice by an operation as if playing a musical instrument.

近年、楽器を演奏するかのような操作で歌唱音声を発生させる電子楽器がある。例えば、ピアノ鍵盤を模した入力装置に対する押鍵操作に応じて、押下された鍵に対応する音高の歌唱音声を発生させる、といった具合である。以下では、押鍵などの演奏操作に応じて歌唱音声を発生させることを「歌声の演奏」或いは「歌声を演奏する」と呼ぶ。このような歌声の演奏においては、演奏操作に応じて発生させる歌唱音声の歌詞は予め決められていることが多く、面白みに欠ける。そこで、演奏者が歌詞を指定しつつ歌声の演奏を行えるようにする技術が種々提案されており、その一例としては非特許文献1〜3の各文献に開示の技術が挙げられる。   In recent years, there are electronic musical instruments that generate a singing voice by an operation as if playing a musical instrument. For example, a singing voice having a pitch corresponding to the pressed key is generated in response to a key pressing operation on an input device simulating a piano keyboard. Hereinafter, generating a singing voice in response to a performance operation such as pressing a key is referred to as “playing a singing voice” or “playing a singing voice”. In the performance of such a singing voice, the lyrics of the singing voice to be generated according to the performance operation are often determined in advance, and are not interesting. Accordingly, various techniques have been proposed that allow a performer to perform a singing voice while designating lyrics, and examples thereof include techniques disclosed in each of Non-Patent Documents 1 to 3.

非特許文献1には、歌唱合成を利用して歌声の演奏を可能にするリアルタイム日本語歌唱鍵盤楽器である「VOCALOIDキーボード」が開示されている。このVOCALOIDキーボードは、子音、母音、濁点、および半濁点の各々に対応する16個のボタンを有する日本語入力インタフェースと、12音階のピアノ鍵盤を模した音高入力装置とを有している。日本語入力インタフェースは、片手での操作が可能なようにボタン配置が最適化されており、ローマ字入力とかな入力とを組み合わせて任意の日本語文字を入力することができる。このVOCALOIDキーボードのユーザは一方の手(例えば、左手)で日本語入力インタフェースを操作して歌詞を入力するのと同時に、音高入力装置に対してその歌詞を発音する際の音高を指定する操作を他方の手で行うことで歌声の演奏を行うことができる。非特許文献2には、ピアノ鍵盤の左側の鍵(例えば、左半分の鍵)を日本語入力などの歌詞入力に用いる技術が開示されている。そして、非特許文献3には、予め歌詞をプリセットしておき、それらの歌詞のうちから演奏に使用するものを選択することで歌声の演奏を実現する技術が開示されている。  Non-Patent Document 1 discloses a “VOCALOID keyboard” which is a real-time Japanese singing keyboard instrument that enables singing voice performance using singing synthesis. This VOCALOID keyboard has a Japanese input interface having 16 buttons corresponding to each of consonant, vowel, muddy point, and semi-voiced point, and a pitch input device imitating a 12-scale piano keyboard. The Japanese input interface has an optimized button layout so that it can be operated with one hand, and it can input arbitrary Japanese characters by combining Romaji input and Kana input. The user of this VOCALOID keyboard operates the Japanese input interface with one hand (for example, the left hand) and inputs the lyrics at the same time, and at the same time designates the pitch when the lyrics are pronounced to the pitch input device. Singing can be performed by performing the operation with the other hand. Non-Patent Document 2 discloses a technique in which a left key (for example, a left half key) of a piano keyboard is used for lyrics input such as Japanese input. Non-Patent Document 3 discloses a technique for realizing singing voice performance by presetting lyrics in advance and selecting one of the lyrics to be used for performance.

[online]、インターネット<URL:http://www.interaction-ipsj.org/2012/catalogue/catalogue_interactive3.html>[online], Internet <URL: http://www.interaction-ipsj.org/2012/catalogue/catalogue_interactive3.html> [online]、インターネット<URL:http://www.nicovideo.jp/watch/sm22254895>[online], Internet <URL: http://www.nicovideo.jp/watch/sm22254895> [online]、インターネット<URL:http://otonanokagaku.net/nsx39/>[online], Internet <URL: http://otonanokagaku.net/nsx39/>

しかし、非特許文献1〜3の各文献に開示の技術には、夫々以下のような問題があった。まず、非特許文献1および非特許文献2の各文献に開示の技術には、母音と子音を同時に打鍵しなければならず、演奏するのが難しく、特に、即興で作詞しながら演奏することは極めて困難である、という問題があった。非特許文献3に開示の技術には、予め歌詞をプリセットするといった事前準備が必須となるといった問題や、プリセットされた歌詞の範囲でしか作詞を行えず、作詞の自由度が低いといった問題があった。加えて、非特許文献3には、プリセットされた歌詞を一括して閲覧することができず、歌詞の選択に支障が生じる、といった問題もあった。   However, the techniques disclosed in each of Non-Patent Documents 1 to 3 have the following problems. First, the techniques disclosed in each of Non-Patent Document 1 and Non-Patent Document 2 require that vowels and consonants be simultaneously keyed and difficult to play. There was a problem that it was extremely difficult. The technique disclosed in Non-Patent Document 3 has problems such as pre-preparation of preset lyrics, and lyrics can only be written within the preset lyrics range, and the degree of freedom of writing is low. It was. In addition, Non-Patent Document 3 has a problem that preset lyrics cannot be browsed in a lump, and the selection of lyrics is hindered.

本発明は上記課題に鑑みて為されたものであり、歌詞のプリセットなどの事前準備を要することなく、作詞の自由度の高い歌声の演奏を手軽に行うことを可能にする技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a technique that makes it possible to easily perform a singing voice with a high degree of freedom of writing without requiring preliminary preparation such as presetting lyrics. With the goal.

上記課題を解決するために、本発明は、各々異なる音高を割り当てられる複数の鍵の各々に対して、歌詞の発音を表す1または複数の文字よりなる候補文字列を割り当てる割り当て手段と、前記複数の鍵の何れかに対して選択操作が為されたことを契機として、当該選択操作の為された鍵に割り当てられていた候補文字列の表す音を当該鍵に対応する音高で発音する音声の合成指示を、歌唱合成装置に与える発音制御手段と、前記割り当て手段により前記複数の鍵の各々に割り当てる候補文字列を、前記選択操作の為された鍵に割り当てられていた候補文字列に応じて選択し直す選択手段と、を有することを特徴とする演奏支援装置、を提供する。   In order to solve the above problems, the present invention provides an assigning unit that assigns a candidate character string composed of one or more characters representing the pronunciation of lyrics to each of a plurality of keys to which different pitches are assigned, and When a selection operation is performed on one of a plurality of keys, the sound represented by the candidate character string assigned to the key that has been selected is sounded at the pitch corresponding to the key. A pronunciation control means for giving a voice synthesis instruction to the singing voice synthesizing apparatus, and a candidate character string assigned to each of the plurality of keys by the assigning means to a candidate character string assigned to the key subjected to the selection operation There is provided a performance support apparatus characterized by having selection means for reselecting in response.

上記候補文字列は、ひらがなやカタカナ、アルファベットなどの表音文字よりなる文字列であっても良く、また発音記号よりなる文字列であっても良い。本発明の演奏支援装置では、選択操作(複数の鍵を具備し、ピアノ鍵盤を物理的に模したユーザインタフェースであれば押鍵操作、同ピアノ鍵盤を表す画像とタッチパネル等とでピアノ鍵盤を仮想的に模したユーザインタフェースであれば鍵に対するタッチ操作)の為された鍵に割り当たられていた候補文字列の表す音が歌詞の発音とされるとともに、当該鍵に対応する音高が当該歌詞を発音する際の音高とされる。このように、本発明によれば、歌詞の発音と音高とを1つの鍵に対する選択操作で指定することができるため、各々別個の操作で指定することが必要となる非特許文献1や非特許文献2の各文献に開示の技術に比較して手軽に歌声の演奏を行うことが可能になる。加えて、本発明では、複数の鍵に割り当てられている各候補文字列のうちから歌詞の発音を選択しなければならないといった制約はあるものの、鍵の選択操作が為される毎に各鍵に対する候補文字列の割り当てが更新されるため、非特許文献3に開示の技術よりは作詞の自由度が高く、予め歌詞をプリセットしておくなどの事前準備を行う必要もない。つまり、本発明によれば、歌詞のプリセットなどの事前準備をすることなく、作詞の自由度の高い歌声の演奏を手軽に行うことが可能になる。   The candidate character string may be a character string composed of phonetic characters such as hiragana, katakana, and alphabet, or may be a character string composed of phonetic symbols. In the performance support apparatus of the present invention, a selection operation (if a user interface having a plurality of keys and physically mimicking a piano keyboard is pressed, a piano keyboard is virtually displayed by an image representing the piano keyboard and a touch panel, etc. The sound represented by the candidate character string assigned to the key that has been subjected to a touch operation on the key in the case of a simulated user interface is the pronunciation of the lyrics, and the pitch corresponding to the key is the pitch It is considered as the pitch when sounding. As described above, according to the present invention, the pronunciation and pitch of the lyrics can be designated by a selection operation for one key, and therefore, it is necessary to designate each by a separate operation. Compared with the technique disclosed in each document of Patent Document 2, it becomes possible to perform a singing voice easily. In addition, in the present invention, although there is a restriction that the pronunciation of the lyrics must be selected from each candidate character string assigned to a plurality of keys, each time a key selection operation is performed, Since the assignment of candidate character strings is updated, the degree of freedom of writing is higher than the technique disclosed in Non-Patent Document 3, and there is no need to prepare in advance, such as presetting lyrics. That is, according to the present invention, it is possible to easily perform a performance of a singing voice with a high degree of freedom of writing without preparing in advance such as presetting lyrics.

より好ましい態様においては、上記演奏支援装置は、前記割り当て手段により前記複数の鍵の各々に割り当てられた候補文字列を表示装置に表示させる表示制御手段を有する。このような態様によれば、上記演奏支援装置のユーザは、表示装置の表示内容を通じて各鍵に割り当てられている候補文字列を把握し、即興で作詞(或いは作詞に加えて作曲)する際の参考としながら歌声を演奏することが可能になる。ここで、上記表示装置は、上記複数の鍵とは別個の装置であっても良いし、各鍵に設けられた表示枠(鍵毎に設けられた小型の液晶ディスプレイ)であっても良い。後者の態様であれば、表示制御手段は、割り当て手段により割り当てられた候補文字列を各鍵の表示枠に表示させる、といった具合である。このような態様であれば、上記演奏支援装置のユーザは、上記複数の鍵から目を逸らさずに各鍵に割り当てられている候補文字列を把握することができる。これに対して前者の態様であれば、各鍵に上記表示枠が設けられていない一般的なMIDIキーボード等を用いて歌声の演奏を行う際に、各鍵に割り当てられている候補文字列を把握しつつその演奏を行うことができる。なお、上記前者の態様における表示装置としては、一般的な液晶ディスプレイを用いることができることは勿論、タブレット端末を用いることも可能である。この態様における候補文字列の表示態様としては、表示装置に仮想キーボードを表示させるとともに当該仮想キーボードにおける各鍵に表示枠を設定し、図2と同様にそれら表示枠内に候補文字列を表示する態様が挙げられる。   In a more preferred aspect, the performance support device has display control means for causing a display device to display candidate character strings assigned to each of the plurality of keys by the assigning means. According to such an aspect, the user of the performance support device grasps the candidate character string assigned to each key through the display content of the display device, and composes the lyrics (or composes in addition to the lyrics) improvised. It becomes possible to play a singing voice with reference. Here, the display device may be a device separate from the plurality of keys, or may be a display frame (small liquid crystal display provided for each key) provided for each key. In the latter case, the display control unit displays the candidate character string assigned by the assigning unit in the display frame of each key. According to such an aspect, the user of the performance support apparatus can grasp the candidate character strings assigned to the keys without looking away from the plurality of keys. On the other hand, in the former mode, when performing a singing voice using a general MIDI keyboard or the like in which the display frame is not provided for each key, a candidate character string assigned to each key is displayed. The performance can be performed while grasping. In addition, as a display device in the former mode, a general liquid crystal display can be used, and a tablet terminal can also be used. As a display mode of the candidate character string in this mode, a virtual keyboard is displayed on the display device, a display frame is set for each key in the virtual keyboard, and the candidate character string is displayed in the display frame as in FIG. An embodiment is mentioned.

より好ましい態様においては、選択操作の為された鍵の履歴(選択順)を記憶する記憶手段を備え、選択手段は、記憶手段に記憶されている履歴の示す候補文字列の並びに応じて複数の鍵の各々に割り当てる候補文字列を選択することを特徴とする。上記履歴の示す候補文字列の並びに基づいて各鍵に新たに割り当てる候補文字列を選択する態様の具体例としては、上記履歴の示す各候補文字列をその選択順に並べて得られる文字列に後続させた場合に辞書的に不整合の生じない1または複数の文字よりなる文字列を、各鍵に対して新たに割り当てる候補文字列として選択する態様が挙げられる。このような態様によれば、1または複数の候補文字列を連ねて得られる単語単位では辞書的な意味を有するものの、文全体では特段の意味を為さない歌詞となる場合があるが、その反面、以下の例1〜例3に示すように、普段であれば思いつかないような歌詞を発想することが可能となる。
例1: ゴメスが左バッターボックスに...
例2: 5メートルの猫がもしいたら....
例3: ごめりんごんだめりんご....
また、本態様によれば、「作詞はできるが作曲はできない」というようなユーザであっても、単に歌詞を選んで打鍵をするだけで、自然にメロディを作成することが可能になる(すなわち、作曲の知識のない人であっても、容易にオリジナル曲の歌声を演奏することが可能になる)。さらに好ましい態様としては、選択手段は、記憶手段に記憶されている履歴の示す音高の推移を加味して複数の鍵の各々に割り当てる候補文字列を選択する態様が考えられる。例えば、辞書的(或いは言語的)に不整合の生じない1または複数の文字よりなる文字列のなかから、音高の推移(イントネーション)の面から見ても不整合の生じないものを絞り込むといった具合である。
In a more preferred aspect, the storage unit stores a history of keys (selection order) for which the selection operation has been performed, and the selection unit includes a plurality of candidate character strings indicated by the history stored in the storage unit. A candidate character string to be assigned to each key is selected. As a specific example of an aspect of selecting a candidate character string to be newly assigned to each key based on a sequence of candidate character strings indicated by the history, the candidate character strings indicated by the history are followed by a character string obtained in the order of selection. In such a case, a character string composed of one or more characters that do not cause lexicographic inconsistency is selected as a candidate character string to be newly assigned to each key. According to such an aspect, although the word unit obtained by linking one or more candidate character strings has a lexical meaning, the whole sentence may be a lyric that does not make a special meaning. On the other hand, as shown in Examples 1 to 3 below, it is possible to come up with lyrics that would not normally occur.
Example 1: Gomez in the left batter box ...
Example 2: If you have a 5 meter cat ...
Example 3: Gome-Ringo-Dame-Ringo ....
In addition, according to this aspect, even a user who can “song a song but cannot compose a song” can simply create a melody by simply selecting the lyrics and typing (that is, , Even people who have no knowledge of composing can easily play the original singing voice). As a more preferable mode, a mode in which the selection unit selects a candidate character string to be assigned to each of a plurality of keys in consideration of the transition of the pitch indicated by the history stored in the storage unit can be considered. For example, from among character strings made up of one or more characters that do not cause inconsistency in lexicographic (or linguistic) terms, those that do not cause inconsistency in terms of pitch transition (intonation) are narrowed. Condition.

また、別の好ましい態様においては、前記割り当て手段は、前記記憶手段に記憶されている履歴の示す音高の推移を加味して前記複数の鍵の各々に候補文字列を割り当てることを特徴とする。後述するように、各鍵を順次選択することで奏でられる旋律(すなわち、音高の推移)のなかには、好ましいものと、好ましくないものとが有り得る。そこで、それまでに奏でられた旋律に基づいて、次に選択した場合に好ましい旋律となる音高に対応する鍵についての候補文字列の表示態様を他のものとは異ならせる(例えば、表示色を異ならせる、文字フォントを異ならせる、他の鍵には候補文字列を表示しないなど)ことで、好ましい旋律となる音高をユーザに提示することができ、作曲に不慣れなユーザであっても、即興で作詞および作曲しながら歌声を演奏することが可能になる。また、上記表示態様を手掛かりに鍵の選択操作を順次行うことで、作詞に頭を悩ませることなく、好ましい旋律の歌声を演奏することが可能になる。   In another preferred aspect, the assigning means assigns a candidate character string to each of the plurality of keys in consideration of a transition of a pitch indicated by a history stored in the storage means. . As will be described later, the melody (that is, the transition of the pitch) that is played by sequentially selecting each key can be either preferable or unfavorable. Therefore, based on the melody played so far, the display mode of the candidate character string for the key corresponding to the pitch that is the preferred melody when selected next is made different from the other (for example, the display color) , Different character fonts, and other character keys do not display candidate character strings, etc., so that the user can be presented with a pitch that is a favorable melody. It is possible to play a singing voice while improvising lyrics and composing. Further, by sequentially performing the key selection operation using the display mode as a clue, it is possible to play a melody with a preferable melody without worrying about the lyrics.

さらに別の好ましい態様においては、前記割り当て手段による割り当てのリセットをユーザに指示させる操作子を有し、前記割り当て手段は、前記操作子に対する操作によりリセットを指示されたことを契機として前記複数の鍵の各々に対する候補文字列の割り当てを変更することを特徴とする。このような態様によれば、歌詞と音高の対応付けの幅が広がり、歌詞の言語的な意味と音高の自然な推移の両方に留意しつつ歌声の演奏を行うことが可能になる。   In yet another preferred aspect, the device further comprises an operator that instructs a user to reset assignment by the assigning unit, and the assigning unit is triggered by an instruction to reset by an operation on the operator. The assignment of candidate character strings to each of the above is changed. According to such an aspect, the range of correspondence between lyrics and pitches is widened, and it becomes possible to perform a singing voice while paying attention to both the linguistic meaning of the lyrics and the natural transition of the pitches.

また、上記課題を解決するための別の態様としては、CPU(Central Processing Unit)などの一般的なコンピュータを、上記割り当て手段、発音制御手段および選択手段として機能させるプログラムを提供する態様が考えられる。このようなプログラムにしたがってコンピュータを作動させることで、当該コンピュータを本発明の演奏支援装置として機能させることができるからである。なお、このようなプログラムの具体的な提供態様としては、CD−ROM(Compact Disk-Read Only Memory)などのコンピュータ読み取り可能な記録媒体に当該プログラムを書き込んで配布する態様や、インターネットなどの電気通信回線経由のダウンロードにより配布する態様が考えられる。   Further, as another aspect for solving the above-described problem, an aspect in which a program that causes a general computer such as a CPU (Central Processing Unit) to function as the assignment means, the sound generation control means, and the selection means can be considered. . This is because by operating the computer according to such a program, the computer can function as the performance support apparatus of the present invention. As a specific provision mode of such a program, a mode in which the program is written and distributed on a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), or an electric communication such as the Internet A mode of distribution by downloading via a line is conceivable.

本発明の一実施形態の演奏支援装置10を含む歌唱合成システム1の構成例を示す図である。It is a figure which shows the structural example of the song synthesis system 1 containing the performance assistance apparatus 10 of one Embodiment of this invention. 同演奏支援装置10のユーザインタフェース部120の外観の一例を示す図である。2 is a diagram illustrating an example of an appearance of a user interface unit 120 of the performance support apparatus 10. FIG. 同演奏支援装置10の構成例を示す図である。It is a figure which shows the structural example of the performance assistance apparatus. 同演奏支援装置10の制御部110が演奏支援プログラム134aにしたがって実行する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the control part 110 of the same performance assistance apparatus 10 performs according to the performance assistance program 134a. 歌における歌詞の広がりの一例を示す図である。It is a figure which shows an example of the spread of the lyrics in a song. 同演奏支援装置10の動作例を説明するための図である。It is a figure for demonstrating the operation example of the same performance assistance apparatus. 同演奏支援装置10の動作例を説明するための図である。It is a figure for demonstrating the operation example of the same performance assistance apparatus. 変形例(1)を説明するための図である。It is a figure for demonstrating a modification (1). 変形例(1)を説明するための図である。It is a figure for demonstrating a modification (1). 変形例(1)を説明するための図である。It is a figure for demonstrating a modification (1). 変形例(2)を説明するための図である。It is a figure for demonstrating a modification (2). 変形例(2)を説明するための図である。It is a figure for demonstrating a modification (2). 変形例(3)を説明するための図である。It is a figure for demonstrating a modification (3). 変形例(3)を説明するための図である。It is a figure for demonstrating a modification (3). 変形例(3)を説明するための図である。It is a figure for demonstrating a modification (3). 変形例(3)を説明するための図である。It is a figure for demonstrating a modification (3).

以下、図面を参照しつつ本発明の実施形態を説明する。
図1は、本発明の一実施形態の演奏支援装置10を含む歌唱合成システム1の構成例を示す図である。この歌唱合成システム1は、図1に示すように、演奏支援装置10と、歌唱合成エンジン20と、を含んでいる。演奏支援装置10は、ピアノ鍵盤を模した入力デバイス122とスピーカ124とからなるユーザインタフェース(以下、「I/F」)部120(図2参照)を有している。演奏支援装置10は、入力デバイス122に対して為された操作に応じて歌唱音声の合成を指示する制御信号を生成し、歌唱合成エンジン20に与える。歌唱合成エンジン20は、例えば素片接続方式などの既存の歌唱合成アルゴリズムにしたがって歌唱音声を表すデータ(例えば、歌唱音声の波形データ)を生成し出力する装置である。歌唱合成エンジン20は演奏支援装置10から与えられる制御信号に応じて歌唱音声を表す波形データを生成し、演奏支援装置10に与える。演奏支援装置10は、歌唱合成エンジン20から与えられる波形データの表す音をスピーカ124に出力させる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration example of a singing voice synthesis system 1 including a performance support device 10 according to an embodiment of the present invention. As shown in FIG. 1, the song synthesis system 1 includes a performance support apparatus 10 and a song synthesis engine 20. The performance support apparatus 10 includes a user interface (hereinafter, “I / F”) unit 120 (see FIG. 2) that includes an input device 122 simulating a piano keyboard and a speaker 124. The performance support apparatus 10 generates a control signal for instructing synthesis of the singing voice in accordance with an operation performed on the input device 122, and supplies the control signal to the singing synthesis engine 20. The singing voice synthesis engine 20 is a device that generates and outputs data representing singing voice (for example, waveform data of singing voice) in accordance with an existing singing voice synthesis algorithm such as a unit connection method. The singing voice synthesis engine 20 generates waveform data representing the singing voice according to the control signal given from the performance support device 10, and gives it to the performance support device 10. The performance support apparatus 10 causes the speaker 124 to output the sound represented by the waveform data given from the song synthesis engine 20.

本実施形態の歌唱合成システム1では、入力デバイス122に含まれる複数の鍵には各々異なる音高が割り当てられているとともに、歌詞の発音を表す文字列(本実施形態では、図2に示すように「ひらがな一文字」)が各々割り当てられている。各鍵に割り当てられる文字列はユーザが歌声の演奏を行おうとする楽曲の歌詞の候補となる。このため、以下では、上記文字列を「候補文字列」と呼ぶ。演奏支援装置10は、何れかの鍵に対する選択操作(入力デバイス122がピアノ鍵盤を物理的に模したものであれば押鍵操作)が為されたことを契機として、当該選択操作の為された鍵に割り当てられている候補文字列の表す音を当該鍵に対応する音高で発音する歌唱音声の合成を指示する制御信号を生成し、歌唱合成エンジン20に与える。このような構成としたため、本実施形態によれば、鍵を順次押下するといった演奏操作を行うことで歌声の演奏が実現される。以下、本実施形態の特徴を顕著に示す演奏支援装置10を中心に説明する。   In the singing voice synthesizing system 1 of the present embodiment, different pitches are assigned to the plurality of keys included in the input device 122, and character strings representing the pronunciation of lyrics (in this embodiment, as shown in FIG. 2). "One Hiragana character") is assigned to each. The character string assigned to each key is a candidate for the lyrics of the music that the user wants to play a singing voice. Therefore, hereinafter, the character string is referred to as a “candidate character string”. The performance support apparatus 10 is triggered by the selection operation for any key (when the input device 122 is physically a piano keyboard, a key pressing operation) is performed. A control signal for instructing synthesis of a singing voice that generates a sound represented by a candidate character string assigned to the key at a pitch corresponding to the key is generated and provided to the singing synthesis engine 20. Due to such a configuration, according to the present embodiment, a performance of singing voice is realized by performing a performance operation such as sequentially pressing keys. Hereinafter, the description will focus on the performance support apparatus 10 that significantly shows the features of the present embodiment.

図3は、演奏支援装置10の構成例を示す図である。図3に示すように、演奏支援装置10は、前述したユーザI/F部120の他に、制御部110、記憶部130、外部機器I/F部140およびこれら構成要素間のデータ授受を仲介するバス150を含んでいる。   FIG. 3 is a diagram illustrating a configuration example of the performance support apparatus 10. As shown in FIG. 3, the performance support apparatus 10 mediates data exchange between the control unit 110, the storage unit 130, the external device I / F unit 140, and these components in addition to the user I / F unit 120 described above. Bus 150 is included.

制御部110は例えばCPUである。制御部110は記憶部130(より正確には不揮発性記憶部134)に記憶されている演奏支援プログラム134aを実行することで演奏支援装置10の制御中枢として機能する。演奏支援プログラム134aにしたがって制御部110が実行する処理の詳細については後に明らかにする。外部機器I/F部140は、例えばUSBインタフェースやパラレルインタフェースであり、USBケーブルなどの信号線を介して歌唱合成エンジン20に接続されている。   The control unit 110 is a CPU, for example. The control unit 110 functions as a control center of the performance support apparatus 10 by executing the performance support program 134a stored in the storage unit 130 (more precisely, the nonvolatile storage unit 134). Details of processing executed by the control unit 110 in accordance with the performance support program 134a will be clarified later. The external device I / F unit 140 is, for example, a USB interface or a parallel interface, and is connected to the song synthesis engine 20 via a signal line such as a USB cable.

前掲図2に示すように、ユーザI/F部120は、前述した入力デバイス122、スピーカ124の他にホイール126を有している。ホイール126は、図2において矢印で示す方向に回転させることができる。ユーザは、ホイール126の回転方向および回転量を操作することで、スピーカ124の出力音量の調整やスピーカ124から出力する音声にピッチベンドなどの音響効果を付与する際の音響効果の強さの調整を行うことができる。図2に示すように、入力デバイス122は、複数の鍵を有しており、何れかの鍵に対する選択操作(例えば、押鍵)が為されると、当該選択操作の為された鍵を示す信号を制御部110に与える。入力デバイス122の有する複数の鍵の各々には、各々異なる音高が割り当てられているとともに、白鍵であるか黒鍵であるかを問わずに表示枠122aが設けられている(図2では、左端の白鍵の表示枠のみに符号122aが付されている)。表示枠122aは小型の液晶ディスプレイであり、各鍵の表示枠122aには、その鍵に割り当てられている候補文字列が表示される。例えば、図2に示す例では、一番左端の白鍵には候補文字列として「い」が、同左端の黒鍵には候補文字列として「あ」が割り当てられているといった具合である。歌唱合成システム1を用いて歌声の演奏を行うユーザは、各鍵の表示枠122aの表示内容を通じて各鍵に割り当てられている候補文字列を把握することができる。   As shown in FIG. 2, the user I / F unit 120 includes a wheel 126 in addition to the input device 122 and the speaker 124 described above. The wheel 126 can be rotated in the direction indicated by the arrow in FIG. The user operates the rotation direction and the rotation amount of the wheel 126 to adjust the output volume of the speaker 124 and the intensity of the acoustic effect when an acoustic effect such as pitch bend is applied to the sound output from the speaker 124. It can be carried out. As shown in FIG. 2, the input device 122 has a plurality of keys, and when a selection operation (for example, key pressing) is performed on any of the keys, the input device 122 indicates the key that has been selected. A signal is given to the control unit 110. Each of the plurality of keys of the input device 122 is assigned a different pitch, and is provided with a display frame 122a regardless of whether it is a white key or a black key (in FIG. 2). The symbol 122a is attached only to the display frame of the leftmost white key). The display frame 122a is a small liquid crystal display, and the candidate character string assigned to the key is displayed on the display frame 122a of each key. For example, in the example shown in FIG. 2, “i” is assigned as a candidate character string to the leftmost white key, and “a” is assigned as a candidate character string to the leftmost black key. A user who performs a singing voice using the singing voice synthesizing system 1 can grasp the candidate character strings assigned to the keys through the display contents of the display frames 122a of the keys.

記憶部130は、揮発性記憶部132と不揮発性記憶部134とを含んでいる。揮発性記憶部132は例えばRAM(Random Access Memory)である。揮発性記憶部132は、演奏支援プログラム134aを実行する際のワークエリアとして制御部110によって利用される。また、揮発性記憶部132には、選択操作の為された鍵の履歴を示す履歴データが格納される。履歴データは、選択操作の為された鍵、当該鍵に対応する音高および当該選択操作の為された時点で当該鍵に割り当てられていた候補文字列の各々を示す情報を互いに対応付けて、選択操作の為された順に配列したデータである。この履歴データは、入力デバイス122に対する選択操作を契機として、当該選択操作により発音させた歌詞に後続する歌詞の候補(前述した候補文字列)を選択し直して入力デバイス122の各鍵に割り当てる際に利用される。   The storage unit 130 includes a volatile storage unit 132 and a nonvolatile storage unit 134. The volatile storage unit 132 is, for example, a RAM (Random Access Memory). The volatile storage unit 132 is used by the control unit 110 as a work area when executing the performance support program 134a. The volatile storage unit 132 stores history data indicating a history of keys that have been selected. The history data correlates information indicating each of the key that has been selected, the pitch corresponding to the key, and the candidate character string assigned to the key at the time of the selection operation, Data arranged in the order in which selection operations were performed. This history data is obtained when a selection operation on the input device 122 is used as an opportunity to reselect a lyric candidate (the above-mentioned candidate character string) following the lyric generated by the selection operation and assign it to each key of the input device 122. Used for

不揮発性記憶部134は例えばハードディスクやフラッシュROM(Read Only Memory)である。不揮発性記憶部134には、演奏支援プログラム134aの他に、言語辞書データベース(図3では、「DB」と略記)134bと音名辞書DB134cが予め格納されている。言語辞書DB134bには、歌詞の構成要素となる各種単語を表す文字列が登録されている。言語辞書DB134bは、前述した履歴データと同様に、鍵の選択操作が為されたことを契機として、各鍵に新たなに割り当てる候補文字列を選択する際に利用される。音名辞書DB134cには、入力デバイス122の各鍵に対応する音高を表す情報(すなわち、音名)が各鍵と対応づけて登録されている。   The nonvolatile storage unit 134 is, for example, a hard disk or a flash ROM (Read Only Memory). In addition to the performance support program 134a, the non-volatile storage unit 134 stores a language dictionary database (abbreviated as “DB” in FIG. 3) 134b and a pitch name dictionary DB 134c in advance. In the language dictionary DB 134b, character strings representing various words that are constituent elements of lyrics are registered. The language dictionary DB 134b is used when selecting a candidate character string to be newly assigned to each key when the key selection operation is performed, similarly to the history data described above. In the pitch name dictionary DB 134c, information indicating the pitches corresponding to the keys of the input device 122 (that is, pitch names) is registered in association with the keys.

制御部110は、演奏支援装置10の電源(図1では図示略)投入またはリセットを契機として演奏支援プログラム134aを不揮発性記憶部134から揮発性記憶部132に読み出し、その実行を開始する。図4は、演奏支援プログラム134aにしたがって制御部110が実行する処理の流れを示すフローチャートである。図4に示すように、演奏支援プログラム134aにしたがって作動している制御部110は、候補文字列割り当て処理134a1、発音制御処理134a2、および候補文字列選択処理134a3を繰り返し実行する。これら各処理の概要は以下の通りである。   The control unit 110 reads the performance support program 134a from the nonvolatile storage unit 134 to the volatile storage unit 132 when the power supply (not shown in FIG. 1) of the performance support device 10 is turned on or reset, and starts its execution. FIG. 4 is a flowchart showing the flow of processing executed by the control unit 110 in accordance with the performance support program 134a. As shown in FIG. 4, the control unit 110 operating according to the performance support program 134a repeatedly executes a candidate character string assignment process 134a1, a pronunciation control process 134a2, and a candidate character string selection process 134a3. The outline of each of these processes is as follows.

候補文字列割り当て処理134a1は、入力デバイス122の複数の鍵の各々に対して候補文字列を割り当て、両者の対応を示す情報(以下、割り当て情報)を揮発性記憶部132に書き込む処理である。各鍵に割り当てる候補文字列については、例えば、歌唱合成システム1の電源投入またはリセット直後であれば、言語辞書DB134bの格納内容を参照してランダムに選択すれば良く、一回でも鍵の選択操作が為された後であれば後述する候補文字列選択処理134a3により選択すれば良い。また、各鍵への候補文字列の割り当てについても疑似乱数等を利用してランダムに行えば良い。なお、本実施形態の候補文字列割り当て処理134a1には、各鍵に割り当てた候補文字列をその鍵の表示枠122aに表示させる表示制御処理が含まれている。つまり、演奏支援プログラム134aにしたがって作動している制御部110は、候補文字列割り当て処理134a1を実行する割り当て手段として機能するとともに、上記表示制御処理を実行する表示制御手段として機能する。   The candidate character string assignment process 134a1 is a process of assigning a candidate character string to each of the plurality of keys of the input device 122 and writing information indicating the correspondence between them (hereinafter, assignment information) to the volatile storage unit 132. The candidate character strings to be assigned to the keys may be selected at random by referring to the contents stored in the language dictionary DB 134b, for example, immediately after the singing synthesis system 1 is turned on or reset, and the key selection operation is performed once. After the process is performed, selection may be made by a candidate character string selection process 134a3 described later. Further, the assignment of the candidate character string to each key may be performed randomly using a pseudo random number or the like. The candidate character string assignment process 134a1 of the present embodiment includes a display control process for displaying the candidate character string assigned to each key on the display frame 122a of the key. That is, the control unit 110 operating according to the performance support program 134a functions as an assigning unit that executes the candidate character string assigning process 134a1 and also functions as a display control unit that executes the display control process.

発音制御処理134a2は、鍵の選択操作に応じて実行される処理である。より詳細に説明すると、制御部110は、候補文字列割り当て処理134a1の実行を完了すると入力待ち受け状態となり、何れかの鍵の選択を示す信号を入力デバイス122から受け取ったことを契機として発音制御処理134a2を実行する。この発音制御処理134a2では、制御部110は、入力デバイス122から出力された信号の示す鍵に割り当てられていた候補文字列を上記割り当て情報を参照して特定するとともに、当該鍵に対応する音高を音名辞書DB134cを参照して特定する。そして、制御部110は、当該候補文字列の表す音を当該音高で発音する音声の合成を指示する制御信号を生成し、歌唱合成エンジン20に出力するとともに、当該候補文字列および当該音高を示す情報を履歴データに追記する。つまり、演奏支援プログラム134aにしたがって作動している制御部110は、発音制御処理134a2を実行する発音制御として機能する。   The sound generation control process 134a2 is a process executed in response to a key selection operation. More specifically, the control unit 110 enters an input standby state when the execution of the candidate character string assignment process 134a1 is completed, and is triggered by the reception of a signal indicating the selection of any key from the input device 122. 134a2 is executed. In the sound generation control process 134a2, the control unit 110 specifies a candidate character string assigned to the key indicated by the signal output from the input device 122 with reference to the assignment information, and also specifies a pitch corresponding to the key. Is identified with reference to the pitch name dictionary DB 134c. And the control part 110 produces | generates the control signal which instruct | indicates the synthesis | combination of the audio | voice which pronounces the sound which the said candidate character string represents with the said pitch, and while outputting to the song synthesis engine 20, the said candidate character string and the said pitch Is added to the history data. That is, the control unit 110 operating according to the performance support program 134a functions as sound generation control for executing the sound generation control process 134a2.

候補文字列選択処理134a3は、発音制御処理134a2の実行完了を契機として実行される処理である。候補文字列選択処理134a3では、制御部110は、候補文字列割り当て処理134a1にて各鍵に割り当てる候補文字列を、それまでに出力した歌唱音声の歌詞(すなわち、履歴データの示す候補文字列の並びの表す歌詞)に応じて選択し直す処理である。このように、演奏支援プログラム134aにしたがって作動している制御部110は、候補文字列選択処理134a3を実行する選択手段として機能する。   The candidate character string selection process 134a3 is a process that is executed upon completion of the execution of the pronunciation control process 134a2. In the candidate character string selection process 134a3, the control unit 110 sets the candidate character string assigned to each key in the candidate character string assignment process 134a1 to the lyrics of the singing voice that has been output so far (that is, the candidate character string indicated by the history data). This is a process of selecting again according to the lyrics expressed by the line. Thus, the control unit 110 operating according to the performance support program 134a functions as a selection unit that executes the candidate character string selection process 134a3.

歌における歌詞の可能性は、図5に示すように樹形図状に広がっている。この中から、歌詞を構成する文字を選択し、その文字を発音する際の音高を指定して行くのが「歌声の演奏」であると言える。図5に示す樹形図にしたがって選択される文字を連ねて得られる歌詞の中には、言語的な意味を有するものもあれば、意味を有さないものもある。歌の演奏を行う際の歌詞は、言語的な意味を有するものであっても良く、また、スキャットやハミングにおける歌詞のように言語的な意味を有さないものであっても良い。全く意味のない歌詞では、聞いているほうは飽きてしまいやすい反面、 即興で意味のある歌詞を考えながら演奏するのは難しい。これら2つの背反する問題に対して、「意味のある歌詞生成」を補助するのが本実施形態の目的であり、候補文字列選択処理134a3は、この目的の達成に中心的な役割を果たす処理である。   The possibility of lyrics in a song spreads in a tree diagram as shown in FIG. From this, it can be said that “song performance” is to select the characters constituting the lyrics and specify the pitch when the characters are pronounced. Some of the lyrics obtained by connecting the characters selected according to the tree diagram shown in FIG. 5 have a linguistic meaning and some have no meaning. The lyrics when performing a song may have a linguistic meaning, or may have no linguistic meaning like lyrics in scat or humming. With lyrics that have no meaning at all, it is easy to get tired of listening, but it is difficult to play while improvising and meaningful lyrics. The purpose of the present embodiment is to assist in “significant lyric generation” for these two contradictory problems, and the candidate character string selection process 134a3 is a process that plays a central role in achieving this purpose. It is.

候補文字列選択処理134a3における候補文字列の選択アルゴリズムとしては種々の態様が考えられる。例えば、以下の5つの態様が考えられる。第1に、言語辞書DB134bから無作為に単語を選択する態様である。具体的には、直前の押鍵操作までで選択された各候補文字列をその選択順に連ねて得られる文字列から始まる単語を言語辞書DB134bから読み出し、それら単語において上記文字列に後続する文字以降の1または複数文字(本実施形態では、1文字)を新たな候補文字列とする態様である。第2の態様は、上記第1の態様により得られる候補文字列に、助詞(「が」「を」「に」など)のみからなる文字列を候補文字列として追加する態様である。上記第1の態様では、図5に示す樹形図を辿って得られる歌詞が名詞等の特定の品詞に偏る虞があるが、本態様によればこのような偏りが発生することを回避できる。第3の態様は、歌詞が言語的な意味を有する文章になるように、「連想辞書」や「類義語辞書」を用いるなどの作文アルゴリズムを用いて候補文字列を選定する態様である。例えば、直前の押鍵操作までで演奏された歌詞が「あさは」という文字列である場合には「連想辞書」や「類義語辞書」を用いて「ねむい」や「さむい」といった単語を抽出し、これら単語の先頭一文字等をそれぞれ候補文字列とする態様である。第4の態様は、突飛な(無意味な)歌詞も作ることができるよう、無意味な単語になる歌詞を一定割合で混ぜる態様である。そして、第5の態様は、差別言辞などの公序良俗に反する単号等の特定の単語(以下、NGワード)を含む歌詞の演奏が回避されるように、NGワードを予め登録しておき、直前の押鍵操作までで演奏された歌詞と第1〜第4の態様の何れかにより得られた候補文字列とを連結した場合に連結後の文字列が予め登録されたNGワードと一致する候補文字列を除外する態様である。   Various modes can be considered as a candidate character string selection algorithm in the candidate character string selection processing 134a3. For example, the following five aspects can be considered. The first is a mode in which words are randomly selected from the language dictionary DB 134b. Specifically, words starting from a character string obtained by linking each candidate character string selected up to the immediately preceding key pressing operation in the order of selection are read from the language dictionary DB 134b, and the characters subsequent to the character string in those words This is a mode in which one or a plurality of characters (one character in the present embodiment) is used as a new candidate character string. The second mode is a mode in which a character string consisting only of particles (such as “ga”, “to”, “ni”) is added as a candidate character string to the candidate character string obtained by the first mode. In the first aspect, the lyrics obtained by following the tree diagram shown in FIG. 5 may be biased toward specific parts of speech such as nouns. However, according to the present aspect, such a bias can be avoided. . The third mode is a mode in which candidate character strings are selected by using a writing algorithm such as “associative dictionary” or “synonym dictionary” so that the lyrics become sentences having linguistic meaning. For example, if the lyrics played up to the previous key press operation are the character string “asaha”, words such as “nemui” and “samui” are extracted using “associative dictionary” and “synonym dictionary”. The first character of these words is a candidate character string. The fourth mode is a mode in which lyrics that become meaningless words are mixed at a certain ratio so that extraordinary (meaningless) lyrics can be created. And the 5th mode registers the NG word beforehand so that the performance of the lyric including the specific word (hereinafter referred to as NG word) such as a single number that is contrary to public order and morals such as discrimination words is avoided, When the lyrics played up to the key-pressing operation and the candidate character string obtained by any of the first to fourth modes are concatenated, the concatenated character string matches a pre-registered NG word This is an aspect of excluding character strings.

例えば、候補文字列割り当て処理134a1により、図2に示すように入力デバイス122の各鍵に候補文字列が割り当てられている状況下で、ユーザが最初の歌詞および音高を示すものとして候補文字列「ご」を割り当てられている鍵を押下したとする。制御部110は、当該鍵の押下を契機として発音制御処理134a2を実行し、当該候補文字列(すなわち、「ご」)を当該鍵に対応する音高(例えば、B3)で発音する歌唱音声の合成を指示する制御信号を歌唱合成エンジン20に出力し、当該歌唱音声の出力が行われる。   For example, in the situation where the candidate character string is assigned to each key of the input device 122 as shown in FIG. 2 by the candidate character string assigning process 134a1, the candidate character string is assumed to indicate the first lyrics and pitch. It is assumed that a key assigned with “go” is pressed. The control unit 110 executes the sound generation control process 134a2 when the key is pressed, and the singing voice sounding the candidate character string (that is, “go”) at the pitch (for example, B3) corresponding to the key. A control signal for instructing synthesis is output to the singing voice synthesis engine 20, and the singing voice is output.

発音制御処理134a2に後続する候補文字列選択処理134a3では、制御部110は、出力した歌詞(本動作例では、「ご」)から始まる単語を言語辞書DB134bから読み出し、それら単語において上記候補文字列に後続する各文字を新たな候補文字列とする。例えば、「ご」から始まる単語として、「ごご」、「ごぜん」、「ごめんね」、「ごかい」、「ごちそう」・・・といった単語が読み出されたとすると、制御部110は、これら単語の2文字目(すなわち、「め」、「ぜ」、「か」、「ち」、「ご」・・・)を新たな候補文字列して選択する。そして、このようにして選択された候補文字列は候補文字列割り当て処理134a1によって入力デバイス122の各鍵に割り当てられ、各鍵の表示枠122aの表示内容は図6のように更新される。   In the candidate character string selection process 134a3 subsequent to the pronunciation control process 134a2, the control unit 110 reads words starting from the output lyrics (in this operation example, “go”) from the language dictionary DB 134b, and the candidate character strings are included in those words. Each character that follows is set as a new candidate character string. For example, if words such as “gogo”, “gozen”, “sorry”, “fancy”, “feast”, etc. are read out as words starting with “go”, the control unit 110 reads these words. The second character of the word (ie, “me”, “ze”, “ka”, “chi”, “go”...) Is selected as a new candidate character string. Then, the candidate character string selected in this way is assigned to each key of the input device 122 by the candidate character string assigning process 134a1, and the display content of the display frame 122a of each key is updated as shown in FIG.

図6に示すように入力デバイス122の各鍵に候補文字列が割り当てられている状況下で、ユーザが次の歌詞に対応するものとして候補文字列「め」を割り当てられている鍵を押下したとする。制御部110は、当該鍵の押下を契機として発音制御処理134a2を実行し、当該候補文字列の表す音を当該鍵に対応する音高(例えば、C4)で発音する歌唱音声の合成を指示する制御信号を歌唱合成エンジン20に出力し、当該歌唱音声の出力が行われる。この発音制御処理134a2に後続する候補文字列選択処理134a3では、制御部110は、出力済の歌詞(本動作例では、「ごめ」)から始まる単語を言語辞書134bから読み出し、それら単語において上記候補文字列に後続する各文字を新たな候補文字列とする。例えば、「ごめ」から始まる単語として、「ごめんね」、「ごめんなさい」、「ごめんください」、「ごめえ」、「ごめす」・・・といった単語が読み出されたとする。これら単語の3文字目について「ん」の出現率が60%、「え」の出現率が10%、「す」の出現率が10、その他が20であったとすると、制御部110は、「ん」が60%、「え」が10%、「す」が10%、その他の文字が20%となるように新たな候補文字列を選択する。このようにして選択された候補文字列は候補文字列割り当て処理134a1によって入力デバイス122の各鍵に割り当てられることで、各鍵の表示枠122aの表示内容は図7のように更新される。   As shown in FIG. 6, in a situation where a candidate character string is assigned to each key of the input device 122, the user presses the key assigned the candidate character string “M” corresponding to the next lyrics. And The control unit 110 executes the sound generation control process 134a2 when the key is pressed, and instructs synthesis of a singing voice that sounds the sound represented by the candidate character string at a pitch (for example, C4) corresponding to the key. A control signal is output to the song synthesis engine 20, and the song voice is output. In the candidate character string selection process 134a3 subsequent to the pronunciation control process 134a2, the control unit 110 reads out words starting from the output lyrics (in this operation example, “gome”) from the language dictionary 134b, and the above words are included in the words. Each character following the candidate character string is set as a new candidate character string. For example, it is assumed that words such as “I'm sorry”, “I'm sorry”, “I'm sorry”, “I'm sorry”, “I'm sorry”, etc. are read out as words that start with “Gome”. Assuming that the appearance rate of “n” is 60%, the appearance rate of “e” is 10%, the appearance rate of “su” is 10, and the others are 20 for the third letter of these words, New candidate character strings are selected so that “N” is 60%, “E” is 10%, “Su” is 10%, and other characters are 20%. The candidate character string selected in this way is assigned to each key of the input device 122 by the candidate character string assignment processing 134a1, so that the display content of the display frame 122a of each key is updated as shown in FIG.

以上説明したように本実施形態によれば、非特許文献3に開示の技術のように予め歌詞をプリセットするなどの事前準備を行う必要はなく、即興で作詞しながら演奏するなどの歌詞の自由度の高い歌声の演奏を行うことが可能になる。ここで、ユーザが次に発音する歌詞(或いは音高)を選択する際の選択の仕方としては、表示されている候補文字列をもとに次の音を選択する態様(作詞を優先する態様)、希望の音高を選択することで次の歌詞を選択する態様(作曲を優先する態様)、音高と歌詞の両方を勘案してふさわしい歌詞および音高を選択する態様、でたらめに選択する態様が考えられ、ユーザの好みに応じて適宜使い分けるようにすれば良い。なお、本実施形態の候補文字列割り当て処理134a1では、ユーザの所望する歌詞が所望の音高の鍵に割り当てられるとは限らないため、ホイール126に対する操作で、各鍵に対する候補文字列の割り当てを変更(例えば、サイクリックに変更)できるようにしても良い。   As described above, according to the present embodiment, there is no need to prepare in advance, such as presetting lyrics as in the technique disclosed in Non-Patent Document 3, and freedom of lyrics such as playing while improvising lyrics It becomes possible to perform a highly sung voice. Here, as a method of selection when the user selects the lyrics (or pitch) to be pronounced next, a mode of selecting the next sound based on the displayed candidate character string (a mode in which lyrics are given priority) ), Select the desired lyrics by selecting the next lyrics (composition priority), select appropriate lyrics and pitches considering both pitch and lyrics, and select randomly A mode is conceivable, and it may be appropriately used according to the user's preference. In the candidate character string assignment processing 134a1 of the present embodiment, the lyrics desired by the user are not necessarily assigned to the keys having the desired pitch, and therefore, the operation of the wheel 126 assigns candidate character strings to the keys. You may enable it to change (for example, change cyclically).

また、本実施形態によれば、歌詞の発音とその音高とを1つの鍵に対する押鍵操作で指定することができるため、非特許文献1や非特許文献2に開示の技術のように両者を各々別個に指定することが必要な技術に比較して、手軽に歌声の演奏を行うことが可能になる。つまり、本実施形態によれば、歌詞のプリセットなどの事前準備をすることなく、作詞の自由度の高い歌声の演奏を手軽に行うことが可能になる。   Further, according to the present embodiment, since the pronunciation of the lyrics and the pitch thereof can be designated by a key pressing operation on one key, both the techniques disclosed in Non-Patent Document 1 and Non-Patent Document 2 are used. It is possible to easily perform a singing voice compared to a technique that requires each to be specified separately. That is, according to the present embodiment, it is possible to easily perform a singing voice with a high degree of freedom in writing lyrics without preparing in advance such as presetting lyrics.

以上本発明の一実施形態について説明したが、この実施形態に以下の変形を加えても勿論良い。
(1)歌唱合成装置1を用いて歌声の演奏を行おうとする演奏者が作曲に慣れていない場合、どの音高を選べばよいかが難しい場合がある。当然ながら、好ましい(自然な)旋律と、好ましくない(不自然な)旋律は存在する。たとえば、図8の譜例(a)〜(d)
は、7番目の音の選択に関するサンプルである。この場合、メロディが自然かどうかという観点で評価すると、以下のようなスコアをつけることができる。
譜例A:100点
譜例B: 10点
譜例C: 15点
譜例D:
30点
そこで、ユーザの演奏操作により指定された音高を基に複数の鍵の各々について当該音高の音に後続した場合に好ましい(自然な)旋律となるか否かについてのスコア(換言すれば、次の音として推奨する度合いを示す値)を算出し、スコアに応じて候補文字列の表示態様を鍵毎に異ならせるようにしても良い。具体的には、上記スコアが所定の閾値未満の鍵には候補文字列を表示しない(或いは、候補文字列を括弧で括って表示する、候補文字の表示色を変えるなど)ようにすることが考えられる。このような態様によれば、作曲初心者であっても、どの音高を選べばよいか戸惑うことなく、好ましい(自然な)旋律の歌声を演奏することが可能となる。なお、上記スコアは、伴奏の和音(Cm、D7など)や調性(ハ長調、ニ短調など)によって異なる。このため、伴奏の和音を示す情報や調性を示す情報など上記スコアを算出するための付加情報を演奏支援装置10に入力できるようにしておくことが好ましい。
Although one embodiment of the present invention has been described above, it goes without saying that the following modifications may be added to this embodiment.
(1) If a performer who wants to perform a singing voice using the singing synthesizer 1 is not used to composing, it may be difficult to select which pitch to select. Of course, there are preferred (natural) and unfavorable (unnatural) melodies. For example, the score examples (a) to (d) in FIG.
Is a sample on the selection of the seventh sound. In this case, if it is evaluated from the viewpoint of whether the melody is natural, the following score can be given.
Sample A: 100 points Sample B: 10 points Sample C: 15 points Sample D:
30 points Therefore, based on the pitch designated by the user's performance operation, a score (in other words, whether or not a preferable (natural) melody is obtained for each of a plurality of keys following the pitch of the pitch. For example, a value indicating a degree recommended as the next sound) may be calculated, and the display mode of the candidate character string may be different for each key according to the score. Specifically, a candidate character string is not displayed on a key whose score is less than a predetermined threshold (or the candidate character string is displayed in parentheses, the display color of the candidate character is changed, etc.). Conceivable. According to such an aspect, even if it is a beginner of composition, it becomes possible to play a singing voice of a favorable (natural) melody without being confused about which pitch should be selected. The score differs depending on the accompaniment chords (Cm, D7, etc.) and tonality (C major, D minor, etc.). Therefore, it is preferable that additional information for calculating the score, such as information indicating accompaniment chords and information indicating tonality, can be input to the performance support apparatus 10.

また、伴奏データにしたがって伴奏音を同時に演奏または再生する場合には、伴奏の音と合わない音が選択されることを回避するため、当該伴奏音におけるコード進行に応じて上記スコアを算出しても良い。例えば、図9(a)に示すように、ある小節のコードがF(Fメジャー、 構成音:F、A、C)の場合、一般的な音楽においては、F#や、Bなどが用いられる可能性は非常に小さいため、これらのスコアを充分に小さな値とし、図9(b)に示すように、これらに割り当てられた候補文字列の表示態様を他のものとは異ならせるのである。図9(b)に示す例では、表示枠122a内のハッチングの有無で表示態様の相違が表現されている。こういった機能を実装することにより、即興演奏に慣れていない人でも、即興演奏を楽しむことができる。また、それぞれの音に音楽的な「機能」があることを学習することができる。ただし、音楽においての「禁則」は、厳密なルールとして存在する訳ではないので、上記スコアの算出および上記スコアに応じた候補文字列の表示態様の制御は、あくまで、「どの音を選べばよいかわからない」という状態を回避するための補助ツールであり、スコアの小さな音の発音を指示されたからといってその発音を禁止する必要はない。   When accompaniment sounds are played or played simultaneously according to accompaniment data, the above score is calculated according to the chord progression in the accompaniment sounds in order to avoid selecting sounds that do not match the accompaniment sounds. Also good. For example, as shown in FIG. 9A, when a chord of a certain bar is F (F major, constituent sounds: F, A, C), F #, B, etc. are used in general music. Since the possibility is very small, these scores are set to a sufficiently small value, and as shown in FIG. 9B, the display mode of the candidate character strings assigned to them is different from the others. In the example shown in FIG. 9B, the difference in display mode is expressed by the presence or absence of hatching in the display frame 122a. By implementing these functions, people who are not used to improvisation can enjoy improvisation. It is also possible to learn that each sound has a musical “function”. However, since the “prohibition” in music does not exist as a strict rule, the calculation of the score and the control of the display mode of the candidate character string according to the score are limited to “which sound should be selected. It is an auxiliary tool for avoiding the state of “I don't know”, and it is not necessary to prohibit the pronunciation of a sound with a small score just because it is instructed.

また、上記実施形態では、次に発音させる歌詞とその音高とをユーザに自由に指定させて歌声の演奏を行う場合(すなわち、ユーザが作曲と作詞とを同時に行いつつ歌声の演奏を行う場合)について説明した。しかし、歌声の演奏対象の楽曲が予め決まっている場合(図10(a)に示すように歌詞とメロディが予め決まっている場合)には、メロディを奏でるための鍵操作が為される毎に、次に発音させる音高に応じた鍵のみに次に発音させる歌詞の文字列を表示させても良く、また、図10(b)に示すように当該文字列にだけ下線を付与するなど表示態様を異ならせても良い。   In the above embodiment, when the user performs the singing voice by freely specifying the lyrics to be pronounced next and the pitch thereof (that is, when the user performs the singing voice while simultaneously composing and writing the lyrics). ) Explained. However, when the musical piece to be played is predetermined (when the lyrics and the melody are predetermined as shown in FIG. 10A), every time a key operation for playing the melody is performed. In addition, the character string of the lyrics to be sounded next may be displayed only on the key corresponding to the pitch to be sounded next, or an underline is added only to the character string as shown in FIG. The aspect may be different.

(2)上記実施形態では、言語辞書の格納内容を参照し、演奏済の歌声に後続したときに言語的に自然な候補文字列を選定したが、さらに単語のイントネーションを利用して候補文字列の選択および各鍵への割り当てを行うようにしても良い。具体的には、候補文字列割り当て処理134a1において、イントネーションの情報を加味して候補文字列の割り当てを行うようにすれば良い。図11は、「あさ」で始まる歌詞と、イントネーションの例を示す図である。図12は、上記イントネーションを元にして選択した候補文字列と各鍵への割り当て例を示す図である。図12に示す例では、「朝には」、「朝まで」、「朝から」、「浅い」、「あさがお」の各単語をひらがな書き下した場合の3文字目が入力デバイス122の複数の鍵の左側から順に割り当てられている。この図12に示す例では、図11に示したイントネーションの2音目から3音目の変化を元にしている。例えば、「あさがお」では、2音目から3音目が上昇傾向にあるため、高音部(=右側の鍵盤)に、次の歌詞「が」が割り当てられている。 (2) In the above-described embodiment, a candidate character string that is linguistically natural is selected by referring to the stored contents of the language dictionary and following a played singing voice. Selection and assignment to each key may be performed. Specifically, in candidate character string assignment processing 134a1, candidate character strings may be assigned in consideration of intonation information. FIG. 11 is a diagram illustrating an example of lyrics starting with “ASA” and intonation. FIG. 12 is a diagram showing a candidate character string selected based on the intonation and an example of assignment to each key. In the example illustrated in FIG. 12, the third character when the words “in the morning”, “until morning”, “from morning”, “shallow”, and “agao” are written in hiragana is a plurality of keys of the input device 122. Are assigned in order from the left side. The example shown in FIG. 12 is based on the change from the second tone to the third tone of the intonation shown in FIG. For example, in “Asa-Oga”, the second to third notes tend to increase, so the next lyrics “GA” is assigned to the high pitched part (= the right keyboard).

(3)上記実施形態では、歌詞が日本語で記述された楽曲についての歌声の演奏支援への本発明の適用例を説明し、候補文字列としてひらがな一文字よりなる文字列を用いたが、カタカナ一文字よりなる文字列を候補文字列して用いても勿論良い。ひらがなと同様にカタカナも表音文字だからである。また、候補文字列として、表音文字一文字よりなる文字列を用いるのではなく、図13に示すように、X-SAMPAなどにより定義されている発音記号よりなる文字列を候補文字列として用いても良い。候補文字列として発音記号よりなる文字列を用いることで、母音省略などの表現ができるようになるといった効果も奏される。 (3) In the above embodiment, an example of application of the present invention to singing voice performance support for a song whose lyrics are written in Japanese is explained, and a character string consisting of one hiragana character is used as a candidate character string. Of course, a character string consisting of one character may be used as a candidate character string. This is because katakana is a phonetic character as well as hiragana. In addition, as a candidate character string, a character string made up of phonetic symbols defined by X-SAMPA or the like is used as a candidate character string, as shown in FIG. Also good. By using a character string composed of phonetic symbols as a candidate character string, there is an effect that it is possible to express vowels and the like.

また、本発明の適用対象は、歌詞が日本語で記述された楽曲についての歌声の演奏支援に限定されるものではなく、英語などの日本語以外の言語で歌詞が記述された楽曲についての歌声の演奏支援にも適用可能である。図14〜図16は、歌詞が英語で記述された楽曲についての歌声の演奏支援への本発明の適用例を説明するための図である。例えば、図14に示す初期状態から、候補文字列"dis-"が表示されている鍵をユーザが選択したとする。この場合、これに続く歌詞の候補として辞書的には“able”(すなわち、disable)、“card”(すなわち、discard)、“count”(すなわち、discount)、“cuss”(すなわち、discuss)、“tance”(すなわち、distance)、“play”(すなわち、display)・・・といった単語があげられる。これらを元に次の歌詞を表示すると図15に示すようになる。このように、英語の場合は、歌詞を構成する単語を音節ごとに区切り、音節単位で候補文字列を表示することが望ましい。また、図14および図15に示す例は、「初期状態」から2音節の単語を選択した場合であるが、別の歌詞を選択すれば別の表示となる。例えば、「I」を選んだ場合には、I can, I like, I love, I am, I play,
I got・・・といった歌詞が考えられる。この場合は、“can”、“like”、“love”、“am”、“play”、“got”等が各鍵に割り当てられる候補文字列となり、「I」に対応する鍵の押下を契機として各鍵に割り当てられる候補文字列は図16に示すように更新される。
In addition, the application object of the present invention is not limited to the performance support of singing voices for music whose lyrics are described in Japanese, but singing voices for music whose lyrics are described in a language other than Japanese such as English. It is also applicable to performance support. 14-16 is a figure for demonstrating the example of application of this invention to the performance support of the singing voice about the music in which the lyrics were described in English. For example, it is assumed that the user selects a key on which the candidate character string “dis-” is displayed from the initial state shown in FIG. In this case, lexicographical candidates for subsequent lyrics are “able” (ie, disable), “card” (ie, discard), “count” (ie, discount), “cuss” (ie, discuss), Words such as “tance” (ie distance), “play” (ie display)... Based on these, the next lyrics are displayed as shown in FIG. Thus, in the case of English, it is desirable to divide the words constituting the lyrics into syllables and display candidate character strings in syllable units. The example shown in FIGS. 14 and 15 is a case where a word of two syllables is selected from the “initial state”, but if another lyrics is selected, a different display is obtained. For example, if you select “I”, I can, I like, I love, I am, I play,
Lyrics such as I got ... are possible. In this case, “can”, “like”, “love”, “am”, “play”, “got”, etc. are candidate character strings assigned to each key, and the key corresponding to “I” is pressed. As shown in FIG. 16, the candidate character string assigned to each key is updated.

(4)上記実施形態では、各鍵の表示枠122aにその鍵に割り当てられた候補文字列を表示したが、表示枠122aへの候補文字列の表示制御処理を省略しても良く、また、表示枠122aを省略しても良い。このような態様によれば、鍵盤として従来のMIDIキーボード等を流用することができる。候補文字列の表示制御を全く行わない態様であっても、鍵を押下するまでどのような歌詞が発音されるか判らず、ユーザの予期せぬ歌詞が発音されるなど、即興演奏の面白みが向上するといった効果が期待される。なお、鍵盤として従来のMIDIキーボード等を流用する場合には、上記表示制御処理に代えて、演奏支援装置10とは別個の表示装置(一般的な液晶ディスプレイやタブレット端末等)に各鍵の候補文字列を表示させる表示制御処理を制御部110に実行させるようにしても良い。上記表示制御処理の具体例としては、表示装置に仮想キーボードを表示させるとともに当該仮想キーボードにおける各鍵に表示枠を設定し、図2と同様にそれら表示枠内に候補文字列を表示する処理が挙げられる。 (4) In the above embodiment, the candidate character string assigned to the key is displayed in the display frame 122a of each key, but the display control processing of the candidate character string in the display frame 122a may be omitted. The display frame 122a may be omitted. According to such an aspect, a conventional MIDI keyboard or the like can be used as a keyboard. Even if the display control of the candidate character string is not performed at all, it is not clear what lyrics are pronounced until the key is pressed, and the unexpected lyrics of the user are pronounced. The effect of improving is expected. When a conventional MIDI keyboard or the like is used as a keyboard, each key candidate is displayed on a display device (such as a general liquid crystal display or a tablet terminal) separate from the performance support device 10 instead of the display control process. You may make it make the control part 110 perform the display control process which displays a character string. As a specific example of the display control process, a process of displaying a virtual keyboard on the display device, setting a display frame for each key in the virtual keyboard, and displaying a candidate character string in the display frame as in FIG. Can be mentioned.

(5)上記実施形態では、歌唱合成システム1に本発明の一実施形態の演奏支援装置10が含まれている場合について説明したが、演奏支援装置10単体で提供しても良い。演奏支援装置10をUSBケーブルなどの信号線を介して既存の歌唱合成エンジンに接続することで、上記実施形態の歌唱合成システムを構築することが可能になるからである。なお、演奏支援装置10を信号線経由で歌唱合成エンジンに接続するのではなく、インターネットなどの電気通信回線経由で接続しても良く、また、両者を無線接続しても良い。また、本実施形態の演奏支援装置10を、歌唱合成エンジンを有する歌唱合成装置に組み込んで提供しても良い。また、上記実施形態では、割り当て手段、表示制御手段、発音制御手段および選択手段の各手段をソフトウェアモジュールで実現する場合について説明したが電子回路などのハードウェアで実現しても勿論良い。 (5) In the above embodiment, the case where the performance support apparatus 10 of the embodiment of the present invention is included in the singing voice synthesis system 1 has been described, but the performance support apparatus 10 may be provided alone. This is because it is possible to construct the song synthesis system of the above embodiment by connecting the performance support apparatus 10 to an existing song synthesis engine via a signal line such as a USB cable. Instead of connecting the performance support apparatus 10 to the song synthesis engine via a signal line, the performance support apparatus 10 may be connected via an electric communication line such as the Internet, or both may be connected wirelessly. Moreover, you may provide the performance assistance apparatus 10 of this embodiment incorporated in the song synthesis | combination apparatus which has a song synthesis engine. In the above embodiment, the allocation unit, the display control unit, the sound generation control unit, and the selection unit have been described as being implemented by software modules, but may be implemented by hardware such as an electronic circuit.

1…歌唱合成システム、10…演奏支援装置、110…制御部、120…ユーザI/F部、122…入力デバイス、122a…表示枠、124…スピーカ、126…ホイール、130…記憶部、132…揮発性記憶部、134…不揮発性記憶部、134a…演奏支援プログラム、134b…言語辞書、134c…音名辞書、140…外部機器I/F部、150…バス、20…歌唱合成エンジン。   DESCRIPTION OF SYMBOLS 1 ... Singing synthesis system, 10 ... Performance support apparatus, 110 ... Control part, 120 ... User I / F part, 122 ... Input device, 122a ... Display frame, 124 ... Speaker, 126 ... Wheel, 130 ... Memory | storage part, 132 ... Volatile memory unit 134... Nonvolatile memory unit 134 a. Performance support program 134 b. Language dictionary 134 c Sound name dictionary 140 External device I / F unit 150 Bus 20 singing synthesis engine

Claims (5)

各々異なる音高を割り当てられる複数の鍵の各々に対して、歌詞の発音を表す1または複数の文字よりなる候補文字列を割り当てる割り当て手段と、
前記複数の鍵の何れかに対して選択操作が為されたことを契機として、当該選択操作の為された鍵に割り当てられていた候補文字列の表す音を当該鍵に対応する音高で発音する音声の合成指示を、歌唱合成装置に与える発音制御手段と、
前記割り当て手段により前記複数の鍵の各々に割り当てる候補文字列を、前記選択操作の為された鍵に割り当てられていた候補文字列に応じて選択し直す選択手段と、
を有することを特徴とする演奏支援装置。
Assigning means for assigning a candidate character string consisting of one or more characters representing the pronunciation of the lyrics to each of a plurality of keys to which different pitches are assigned;
When a selection operation is performed on any of the plurality of keys, the sound represented by the candidate character string assigned to the key that has been selected is sounded at a pitch corresponding to the key. Pronunciation control means for giving a voice synthesis instruction to the singing voice synthesis device;
Selection means for reselecting a candidate character string assigned to each of the plurality of keys by the assigning means according to a candidate character string assigned to the key subjected to the selection operation;
A performance support apparatus comprising:
前記割り当て手段により前記複数の鍵の各々に割り当てられた候補文字列を表示装置に表示させる表示制御手段を有する
ことを特徴とする請求項1に記載の演奏支援装置。
The performance support apparatus according to claim 1, further comprising display control means for displaying a candidate character string assigned to each of the plurality of keys by the assigning means on a display device.
選択操作の為された鍵の履歴を記憶する記憶手段を備え、
前記選択手段は、前記記憶手段に記憶されている履歴の示す候補文字列の並びに応じて前記複数の鍵の各々に割り当てる候補文字列を選択する
ことを特徴とする請求項2に記載の演奏支援装置。
Storage means for storing a history of keys that have been selected;
The performance support according to claim 2, wherein the selection unit selects a candidate character string to be assigned to each of the plurality of keys in accordance with a sequence of candidate character strings indicated by a history stored in the storage unit. apparatus.
前記割り当て手段は、前記記憶手段に記憶されている履歴の示す音高の推移を加味して前記複数の鍵の各々に候補文字列を割り当てる
ことを特徴とする請求項3に記載の演奏支援装置。
The performance support apparatus according to claim 3, wherein the assigning means assigns a candidate character string to each of the plurality of keys in consideration of a transition of a pitch indicated by a history stored in the storage means. .
前記割り当て手段による割り当てのリセットをユーザに指示させる操作子を有し、
前記割り当て手段は、前記操作子に対する操作によりリセットを指示されたことを契機として前記複数の鍵の各々に対する候補文字列の割り当てを変更する
ことを特徴とする請求項1〜4の何れか1項に記載の演奏支援装置。
An operator that instructs the user to reset the assignment by the assigning means;
5. The assignment unit according to claim 1, wherein the assignment unit changes assignment of the candidate character string to each of the plurality of keys in response to an instruction to reset by an operation on the operation element. The performance support apparatus described in 1.
JP2014212112A 2014-10-16 2014-10-16 Performance support device Active JP6341050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014212112A JP6341050B2 (en) 2014-10-16 2014-10-16 Performance support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014212112A JP6341050B2 (en) 2014-10-16 2014-10-16 Performance support device

Publications (2)

Publication Number Publication Date
JP2016080868A JP2016080868A (en) 2016-05-16
JP6341050B2 true JP6341050B2 (en) 2018-06-13

Family

ID=55958572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014212112A Active JP6341050B2 (en) 2014-10-16 2014-10-16 Performance support device

Country Status (1)

Country Link
JP (1) JP6341050B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367641B2 (en) * 2020-09-08 2023-10-24 カシオ計算機株式会社 Electronic musical instruments, methods and programs
JP7259817B2 (en) * 2020-09-08 2023-04-18 カシオ計算機株式会社 Electronic musical instrument, method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115478A (en) * 2012-12-10 2014-06-26 Ibex Technology Co Ltd Terminal device, creation production method, creation production program, virtual travel device, virtual travel system

Also Published As

Publication number Publication date
JP2016080868A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
Fauvel et al. Music and mathematics: From Pythagoras to fractals
Macdonald Berlioz's Orchestration Treatise: a translation and commentary
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
JP4736483B2 (en) Song data input program
JP4929604B2 (en) Song data input program
JP6341050B2 (en) Performance support device
JP6003115B2 (en) Singing sequence data editing apparatus and singing sequence data editing method
JP6693176B2 (en) Lyrics generation device and lyrics generation method
US20220044662A1 (en) Audio Information Playback Method, Audio Information Playback Device, Audio Information Generation Method and Audio Information Generation Device
JP2018159741A (en) Song lyrics candidate output device, electric musical instrument, song lyrics candidate output method, and program
JP2002041074A (en) Device for vocal data generation and singing
JP3843953B2 (en) Singing composition data input program and singing composition data input device
JP2002182675A (en) Speech synthesizer, vocal data former and singing apparatus
JP4026512B2 (en) Singing composition data input program and singing composition data input device
JP6617441B2 (en) Singing voice output control device
Chandola Some systems of musical scales and linguistic principles
Fryml In the Shadow of Te Deum: An Analytical Response to the History of Disregard Surrounding Antonín Dvorak's Patriotic Cantata," The American Flag"
de la Cruz et al. Gerard Manley Hopkins Maker Of Music, Singer Of Songs
CN117012170A (en) Music generation method, device, system and storage medium
Zaldua The Concept of the Meta-Instrument and its Implementation in Pre-Composition
JP2020181141A (en) Lyrics input method and program
Wolff Words, Music, Song
Baggech " I Can't Learn That!": Dispelling the Myths of Contemporary Music
Lang He Zhanhao and Chen Gang:" The Butterfly Lovers" Violin Concerto

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180430

R151 Written notification of patent or utility model registration

Ref document number: 6341050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151