JP2016161774A - Music generation device - Google Patents

Music generation device Download PDF

Info

Publication number
JP2016161774A
JP2016161774A JP2015040565A JP2015040565A JP2016161774A JP 2016161774 A JP2016161774 A JP 2016161774A JP 2015040565 A JP2015040565 A JP 2015040565A JP 2015040565 A JP2015040565 A JP 2015040565A JP 2016161774 A JP2016161774 A JP 2016161774A
Authority
JP
Japan
Prior art keywords
music
user
data
pieces
generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015040565A
Other languages
Japanese (ja)
Other versions
JP6596843B2 (en
Inventor
智量 中山
Tomokazu Nakayama
智量 中山
健 松澤
Ken Matsuzawa
健 松澤
治 大島
Osamu Oshima
治 大島
劔持 秀紀
Hidenori Kenmochi
秀紀 劔持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015040565A priority Critical patent/JP6596843B2/en
Publication of JP2016161774A publication Critical patent/JP2016161774A/en
Application granted granted Critical
Publication of JP6596843B2 publication Critical patent/JP6596843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a music generation device for automatically composing a music piece which matches an intention or taste of a user.SOLUTION: A music generation system 10 generates N pieces of music data different from one another according to instruction information (that is, an instruction from a user U) sent from a terminal device 12. Specifically, N pieces of music data are generated by one piece of instruction information. In particular, a processing device 40 of the music generation system 10 generates N pieces of music data through automatic composition processing to which a plurality of variables according to instruction information are applied, and a management device 30 of the system manages the automatic composition processing performed by the processing device 40 and presentation of N pieces of music for the terminal device 12.SELECTED DRAWING: Figure 1

Description

本発明は、楽曲を生成する技術に関する。   The present invention relates to a technique for generating music.

楽曲を自動的に生成する技術(自動作曲技術)が従来から提案されている。例えば特許文献1には、複数の候補から選択された音高の時系列を、複数の候補から選択された発音区間の時系列に付与(譜割)することで楽曲の旋律を生成する技術が開示されている。   A technique for automatically generating music (automatic music technique) has been proposed. For example, Patent Document 1 discloses a technique for generating a music melody by assigning a time series of pitches selected from a plurality of candidates to a time series of pronunciation intervals selected from a plurality of candidates. It is disclosed.

特開2013−45082号公報JP2013-45082A

特許文献1の技術によれば、音楽的に自然で多様な旋律の1個の楽曲を生成することが可能であるが、当該楽曲が利用者の意図や嗜好に合致しない可能性もある。以上の事情を考慮して、本発明は、利用者の意図や嗜好に合致した楽曲の提供の可能性を増加させることを目的とする。   According to the technique of Patent Document 1, it is possible to generate one musical piece that is musically natural and diverse, but there is a possibility that the musical piece does not match the user's intention or preference. In view of the above circumstances, an object of the present invention is to increase the possibility of providing music that matches the user's intentions and preferences.

以上の課題を解決するために、本発明の好適な態様に係る楽曲生成装置は、利用者からの指示に応じて相異なる複数の楽曲の楽曲データを生成する楽曲生成手段と、楽曲生成手段が楽曲データを生成した複数の楽曲を利用者に提示する楽曲提示手段とを具備する。以上の態様では、利用者からの指示に応じて生成された複数の楽曲の楽曲データが生成され、楽曲データの再生候補として複数の楽曲が利用者に提示される。したがって、1個の楽曲を生成する構成と比較して、利用者の意図や嗜好に合致した楽曲の提供を利用者に提供できる可能性を増加させることが可能である。   In order to solve the above problems, a music generation device according to a preferred aspect of the present invention includes a music generation unit that generates music data of a plurality of different music according to an instruction from a user, and a music generation unit. Music presentation means for presenting a user with a plurality of music pieces for which music data has been generated. In the above aspect, music data of a plurality of music pieces generated in response to an instruction from the user is generated, and a plurality of music pieces are presented to the user as music data reproduction candidates. Therefore, compared with the structure which produces | generates one music, it is possible to increase the possibility that provision of music that matches the user's intention and preference can be provided to the user.

本発明の好適な態様において、楽曲生成手段は、利用者が指定した共通の歌詞で楽曲を歌唱する歌唱音声の歌唱データを複数の楽曲の各々について生成する音声合成手段を含み、歌唱音声を含む楽曲の楽曲データを生成する。以上の態様では、利用者が指定した共通の歌詞で相異なる複数の楽曲を利用者に提示できるという利点がある。また、利用者が指定した声質の歌唱音声の歌唱データを音声合成手段が生成する構成によれば、利用者の意図や嗜好に合致した声質の歌唱音声の楽曲を提供できるという利点がある。他方、利用者が声質を指定しない場合に、歌唱音声の歌唱データの生成履歴に応じて選択された声質の歌唱音声の歌唱データを音声合成手段が生成する構成によれば、利用者による声質の選択が必須である場合と比較して、利用者が声質を選択する負荷を軽減しながら、歌唱データの生成履歴に応じた適切な声質を選択できるという利点がある。   In a preferred aspect of the present invention, the music generation means includes voice synthesis means for generating singing data of the singing voice for singing the music with the common lyrics designated by the user for each of the plurality of music pieces, and includes the singing voice. Generate song data for a song. In the above aspect, there exists an advantage that several different music can be shown to a user by the common lyrics designated by the user. In addition, according to the configuration in which the voice synthesizing unit generates the singing data of the singing voice having the voice quality designated by the user, there is an advantage that the music of the singing voice having the voice quality matching the user's intention and preference can be provided. On the other hand, when the user does not specify the voice quality, according to the configuration in which the voice synthesis means generates the singing data of the singing voice of the voice quality selected according to the generation history of the singing voice singing data, the voice quality of the user Compared with the case where selection is essential, there is an advantage that it is possible to select an appropriate voice quality according to the generation history of the song data while reducing the load of the user selecting the voice quality.

本発明の好適な態様において、楽曲生成手段は、利用者が指定したジャンルの伴奏音の伴奏データを複数の楽曲の各々について生成する伴奏生成手段を含み、伴奏音を含む楽曲の楽曲データを生成する。以上の態様では、利用者が指定したジャンルの伴奏音を含む複数の楽曲が生成されるから、利用者の意図や嗜好に合致した伴奏音の楽曲を提供することが可能である。他方、利用者がジャンルを指定しない場合に、伴奏データの生成履歴に応じて選択されたジャンルの伴奏音の伴奏データを伴奏生成手段が生成する構成によれば、利用者によるジャンルの選択が必須である場合と比較して、利用者がジャンルを選択する負荷を軽減しながら、伴奏データの生成履歴に応じた適切なジャンルを選択できるという利点がある。   In a preferred aspect of the present invention, the music generation means includes accompaniment generation means for generating accompaniment data of accompaniment sounds of a genre designated by the user for each of a plurality of music pieces, and generates music data of music pieces including accompaniment sounds. To do. In the above aspect, since a plurality of music pieces including accompaniment sounds of the genre designated by the user are generated, it is possible to provide music pieces with accompaniment sounds that match the user's intention and preferences. On the other hand, when the user does not specify a genre, the accompaniment generation means generates accompaniment data of accompaniment sounds of the genre selected according to the accompaniment data generation history. Compared with the case where it is, there exists an advantage that the appropriate genre according to the production | generation history of accompaniment data can be selected, reducing the load which a user selects a genre.

本発明の好適な態様において、楽曲提示手段は、複数の楽曲の提示の順番を変更可能である。以上の態様では、複数の楽曲の提示の順番が変更されるから、複数の楽曲を多様な観点で優先的に利用者に提示できるという利点がある。例えば、楽曲提示手段は、楽曲生成手段による楽曲データの生成履歴、利用者に関する位置情報、および、複数の楽曲を提示する時刻、の少なくともひとつに応じた順番で複数の楽曲を提示する。また、前述の音声合成手段を具備する構成では、楽曲提示手段は、利用者による歌詞の指定速度に応じた順番で複数の楽曲を当該利用者に提示する。   In a preferred aspect of the present invention, the music presentation means can change the order of presentation of a plurality of music. In the above aspect, since the order of presentation of a plurality of songs is changed, there is an advantage that a plurality of songs can be preferentially presented to the user from various viewpoints. For example, the music presenting means presents a plurality of music in an order corresponding to at least one of the generation history of the music data by the music generating means, the positional information regarding the user, and the time at which the plurality of music is presented. Further, in the configuration including the above-described speech synthesizing means, the music presenting means presents a plurality of music pieces to the user in an order corresponding to the designated speed of lyrics by the user.

本発明の好適な態様において、楽曲生成手段は、時間軸上の複数の単位区間の各々について、相異なる複数の楽曲の楽曲データを生成し、楽曲提示手段は、複数の単位区間の各々について、楽曲生成手段が楽曲データを生成した複数の楽曲を利用者に提示する。以上の態様では、単位区間毎に複数の楽曲データが生成されるから、各単位区間について選択された楽曲を複数の単位区間にわたり時系列に配列した1個の楽曲を構成することが可能である。   In a preferred aspect of the present invention, the music generation means generates music data of a plurality of different music pieces for each of the plurality of unit sections on the time axis, and the music presentation means outputs each of the plurality of unit sections. The music generation means presents the user with a plurality of music for which music data has been generated. In the above aspect, since a plurality of pieces of music data are generated for each unit section, it is possible to configure one piece of music in which the pieces of music selected for each unit section are arranged in time series over a plurality of unit sections. .

以上の各態様に係る楽曲生成装置は、専用の電子回路で実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、例えば、本発明のプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。   The music generating device according to each aspect described above is realized by a dedicated electronic circuit, or by cooperation of a general-purpose arithmetic processing device such as a CPU (Central Processing Unit) and a program. The program of the present invention can be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. For example, the program of the present invention can be provided in the form of distribution via a communication network and installed in a computer.

本発明の第1実施形態に係る楽曲生成システムの構成図である。1 is a configuration diagram of a music generation system according to a first embodiment of the present invention. 端末装置の構成図である。It is a block diagram of a terminal device. 楽曲提示画面の模式図である。It is a schematic diagram of a music presentation screen. 管理装置および処理装置の構成図である。It is a block diagram of a management apparatus and a processing apparatus. 楽曲生成部の構成図である。It is a block diagram of a music production | generation part. 楽曲生成システムの全体的な動作の説明図である。It is explanatory drawing of the whole operation | movement of a music production system. 第3実施形態における楽曲提示画面の模式図である。It is a schematic diagram of the music presentation screen in 3rd Embodiment. 第3実施形態の変形例における楽曲提示画面の模式図である。It is a schematic diagram of the music presentation screen in the modification of 3rd Embodiment.

<第1実施形態>
図1は、第1実施形態に係る楽曲生成システム10の構成図である。第1実施形態の楽曲生成システム10は、本発明の楽曲生成装置の例示であり、端末装置12の利用者Uからの指示に応じて相異なる複数(N個)の楽曲の楽曲データDを生成する。各楽曲データDは、楽曲の歌唱パート(典型的には主旋律)を特定の歌唱者が歌唱した歌唱音声と、当該楽曲の伴奏パートを例えば楽器で演奏した伴奏音との混合音の時間波形を表す音楽ファイルである。端末装置12は、例えば携帯電話機またはスマートフォン等の可搬型の通信端末またはパーソナルコンピュータ等の可搬型あるいは据置型の通信端末である。なお、楽曲生成システム10は実際には複数の端末装置12と通信するが、図1では任意の1個の端末装置12のみが便宜的に図示されている。
<First Embodiment>
FIG. 1 is a configuration diagram of a music generation system 10 according to the first embodiment. The music generation system 10 of the first embodiment is an example of the music generation apparatus of the present invention, and generates music data D of a plurality of different (N) music pieces according to an instruction from the user U of the terminal device 12. To do. Each piece of music data D includes a time waveform of a mixed sound of a singing voice of a specific singer singing a singing part (typically main melody) of a music piece and an accompaniment sound of the accompaniment part of the music piece played by an instrument, for example. It is a music file that represents. The terminal device 12 is, for example, a portable communication terminal such as a mobile phone or a smartphone, or a portable or stationary communication terminal such as a personal computer. Note that the music generation system 10 actually communicates with a plurality of terminal devices 12, but only one arbitrary terminal device 12 is shown in FIG. 1 for convenience.

図1に例示される通り、第1実施形態の楽曲生成システム10は、管理装置30と処理装置40とを具備するコンピュータシステムで実現される。管理装置30および処理装置40の各々は、例えば移動通信網やインターネット等を含む通信網14に接続されたサーバ(典型的にはウェブサーバ)である。管理装置30は通信網14を介して端末装置12と通信し、処理装置40は通信網14を介して管理装置30と通信する。なお、図1では、管理装置30と処理装置40とを便宜的に別体として図示したが、管理装置30と処理装置40とを単体の装置として構成することも可能である。   As illustrated in FIG. 1, the music generation system 10 according to the first embodiment is realized by a computer system including a management device 30 and a processing device 40. Each of the management device 30 and the processing device 40 is a server (typically a web server) connected to the communication network 14 including, for example, a mobile communication network and the Internet. The management device 30 communicates with the terminal device 12 via the communication network 14, and the processing device 40 communicates with the management device 30 via the communication network 14. In FIG. 1, the management device 30 and the processing device 40 are illustrated as separate units for convenience, but the management device 30 and the processing device 40 may be configured as a single device.

図2は、端末装置12の構成図である。図2に例示される通り、第1実施形態の端末装置12は、制御装置20と記憶装置21と通信装置22と操作装置23と表示装置24と放音装置25とを具備する。制御装置20は、端末装置12の動作を統括的に制御する。通信装置22は、管理装置30との間で通信網14を介した通信を実行する。操作装置23は、利用者Uからの指示を受付ける入力機器であり、例えば利用者Uによる操作を検知する複数の操作子や操作面に対する利用者Uの接触を検知するタッチパネルで構成される。   FIG. 2 is a configuration diagram of the terminal device 12. As illustrated in FIG. 2, the terminal device 12 according to the first embodiment includes a control device 20, a storage device 21, a communication device 22, an operation device 23, a display device 24, and a sound emitting device 25. The control device 20 comprehensively controls the operation of the terminal device 12. The communication device 22 executes communication with the management device 30 via the communication network 14. The operation device 23 is an input device that receives an instruction from the user U, and includes, for example, a plurality of operators that detect an operation by the user U and a touch panel that detects the user U's contact with the operation surface.

表示装置24は、制御装置20から指示された画像を表示する。具体的には、楽曲生成システム10が楽曲データDを生成したN個の楽曲を利用者Uに提示する図3の画面(以下「楽曲提示画面」という)が表示装置24に表示される。利用者Uは、操作装置23を適宜に操作することで、楽曲提示画面に提示されたN個の楽曲のうち所望の楽曲を選択することが可能である。図2の放音装置25(例えばスピーカやヘッドホン)は、制御装置20から指示された音響を放射する。具体的には、楽曲提示画面に提示されたN個の楽曲のうち利用者Uが操作装置23に対する操作で選択した楽曲(以下「選択曲」という)の楽曲データDが示す音響が放音装置25から放射される。   The display device 24 displays an image instructed from the control device 20. Specifically, the screen of FIG. 3 (hereinafter referred to as “music presentation screen”) in which the music generation system 10 presents N pieces of music for which music data D has been generated to the user U is displayed on the display device 24. The user U can select a desired music piece among the N pieces of music presented on the music presentation screen by appropriately operating the operation device 23. The sound emitting device 25 (for example, a speaker or headphones) in FIG. 2 emits sound instructed from the control device 20. Specifically, the sound indicated by the music data D of the music (hereinafter referred to as “selected music”) selected by the user U by the operation on the operation device 23 among the N music presented on the music presentation screen is the sound emitting device. 25.

利用者Uは、操作装置23を適宜に操作することで、楽曲生成システム10が生成すべき楽曲の条件を指定する。具体的には、利用者Uは、楽曲の歌詞Lと複数の楽曲属性とを指定することが可能である。歌詞Lは、楽曲の歌唱パートの発音内容を表現する文字列であり、利用者Uにより任意に指定される。楽曲属性は、楽曲の特徴および特色を意味する。第1実施形態では、楽曲の歌唱音声の声質と楽曲のジャンルおよび曲調とを楽曲属性として例示する。声質は、楽曲の歌詞Lを歌唱する歌唱音声の音響特性である。ジャンルは、楽曲(特に伴奏音)の音楽的な分類を意味し、例えば「ロック」「バラード」「ダンス」「ジャズ」等の複数の候補から選択される。曲調は、楽曲から感知される情調や情感(楽曲の雰囲気)を意味し、「明るい」「悲しい」「優しい」等の複数の候補から選択される。   The user U designates the condition of the music to be generated by the music generation system 10 by appropriately operating the operation device 23. Specifically, the user U can specify the lyrics L of the music and a plurality of music attributes. The lyrics L are character strings that express the pronunciation content of the singing part of the music, and are arbitrarily designated by the user U. The music attribute means the characteristics and characteristics of the music. In 1st Embodiment, the voice quality of the song voice of a music, the genre of music, and a tone are illustrated as a music attribute. Voice quality is the acoustic characteristic of the singing voice that sings the lyrics L of the music. The genre means a musical classification of music (particularly accompaniment sounds), and is selected from a plurality of candidates such as “rock”, “ballad”, “dance”, “jazz”, and the like. The melody means an emotion or feeling (music atmosphere) perceived from the music, and is selected from a plurality of candidates such as “bright”, “sad”, and “friendly”.

端末装置12の制御装置20は、操作装置23に対する利用者Uからの指示に応じた指示情報Xを生成して通信装置22から楽曲生成システム10の管理装置30に送信する。指示情報Xは、楽曲生成システム10が生成すべき楽曲の条件を指示する情報であり、利用者Uが指定した歌詞Lと楽曲属性を指定する1個以上の属性情報x(xA,xB,xC)とを包含する。属性情報xAは利用者Uが指定した声質を指示し、属性情報xBは利用者Uが指定したジャンルを指示し、属性情報xCは利用者Uが指定した曲調を指示する。なお、利用者Uは、複数種の楽曲属性(声質,ジャンル,曲調)の各々の指定を省略することも可能である。すなわち、複数の楽曲属性のうちの1種類のみを指定することや、複数の楽曲属性の全部の指定を省略することが可能である。   The control device 20 of the terminal device 12 generates instruction information X corresponding to an instruction from the user U to the operation device 23 and transmits the instruction information X from the communication device 22 to the management device 30 of the music generation system 10. The instruction information X is information for instructing the conditions of the music to be generated by the music generation system 10, and one or more pieces of attribute information x (xA, xB, xC) specifying the lyrics L and music attributes specified by the user U. ). The attribute information xA indicates the voice quality specified by the user U, the attribute information xB indicates the genre specified by the user U, and the attribute information xC indicates the music tone specified by the user U. Note that the user U can omit specifying each of a plurality of types of music attributes (voice quality, genre, music tone). That is, it is possible to specify only one type of a plurality of music attributes or omit specification of all of the plurality of music attributes.

図1の楽曲生成システム10は、端末装置12から送信される指示情報X(すなわち、利用者Uからの指示)に応じて相異なるN個の楽曲の楽曲データDを生成する。すなわち、1個の指示情報XからN個の楽曲データDが生成される。具体的には、楽曲生成システム10の処理装置40は、指示情報Xに応じた複数の変数を適用した自動作曲処理でN個の楽曲の楽曲データDを生成し、管理装置30は、処理装置40による自動作曲処理と端末装置12に対するN個の楽曲の提示とを管理する。   The music generation system 10 in FIG. 1 generates music data D of N different music pieces according to the instruction information X (that is, an instruction from the user U) transmitted from the terminal device 12. That is, N pieces of music data D are generated from one piece of instruction information X. Specifically, the processing device 40 of the music generation system 10 generates music data D of N pieces of music by automatic music processing to which a plurality of variables according to the instruction information X are applied. It manages the automatic music processing by 40 and the presentation of N pieces of music to the terminal device 12.

図4は、管理装置30および処理装置40の構成図である。なお、図4では通信網14の図示は便宜的に省略されている。図4に例示される通り、第1実施形態の管理装置30は、制御装置32と記憶装置34と通信装置36とを具備する。通信装置36は、通信網14を介して端末装置12および処理装置40の各々と通信する。なお、管理装置30と処理装置40とが通信網14を介さずに直接的に通信する構成も採用され得る。記憶装置34は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置32が実行するプログラムや制御装置32が使用する各種のデータを記憶する。制御装置32は、管理装置30の動作を統括的に制御する。第1実施形態の制御装置32は、記憶装置34に記憶されたプログラムを実行することで情報管理部62および楽曲提示部64として機能する。   FIG. 4 is a configuration diagram of the management device 30 and the processing device 40. In FIG. 4, the communication network 14 is not shown for convenience. As illustrated in FIG. 4, the management device 30 according to the first embodiment includes a control device 32, a storage device 34, and a communication device 36. The communication device 36 communicates with each of the terminal device 12 and the processing device 40 via the communication network 14. A configuration in which the management device 30 and the processing device 40 communicate directly without going through the communication network 14 may also be employed. The storage device 34 is configured by a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 32 and various data used by the control device 32. The control device 32 comprehensively controls the operation of the management device 30. The control device 32 according to the first embodiment functions as the information management unit 62 and the music presentation unit 64 by executing a program stored in the storage device 34.

情報管理部62は、通信装置36が端末装置12から受信した指示情報Xに応じた制御情報Zを、相異なるN個の楽曲の各々について生成する。すなわち、端末装置12から送信された共通の指示情報Xから相異なるN個の制御情報Zが生成される。各制御情報Zは、処理装置40による自動作曲処理に適用される変数を指示する制御ファイルであり、例えばXML(Extensible Markup Language)形式で記述される。第1実施形態の制御情報Zは、指示情報Xで指定された歌詞Lと複数の楽曲属性の各々の属性情報z(zA,zB,zC)とを包含する。   The information management unit 62 generates control information Z corresponding to the instruction information X received from the terminal device 12 by the communication device 36 for each of N different pieces of music. That is, N different pieces of control information Z are generated from the common instruction information X transmitted from the terminal device 12. Each control information Z is a control file that indicates a variable that is applied to the automatic music piece processing by the processing device 40, and is described in, for example, an XML (Extensible Markup Language) format. The control information Z of the first embodiment includes the lyrics L specified by the instruction information X and attribute information z (zA, zB, zC) of each of a plurality of music attributes.

制御情報Zの歌詞Lは、端末装置12の利用者Uが指定した文字列であり、N個の制御情報Zにわたり共通する。他方、属性情報zAは歌唱音声の声質を指示し、属性情報zBは楽曲のジャンルを指示し、属性情報zCは楽曲の曲調を指示する。各属性情報zの数値はN個の制御情報Zの各々で個別に設定されて相違し得る。制御情報Zの各属性情報zの生成方法は、端末装置12の利用者Uが指定した楽曲属性の種類に応じて相違する。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合(指定例1)と、複数の楽曲属性の何れかを歌詞Lとともに利用者Uが指定した場合(指定例2〜指定例4)とについて属性情報zの生成の具体例を以下に詳述する。   The lyrics L of the control information Z is a character string designated by the user U of the terminal device 12 and is common to N pieces of control information Z. On the other hand, the attribute information zA indicates the voice quality of the singing voice, the attribute information zB indicates the genre of the song, and the attribute information zC indicates the tone of the song. The numerical value of each attribute information z can be set differently for each of the N pieces of control information Z. The generation method of each attribute information z of the control information Z is different according to the type of music attribute specified by the user U of the terminal device 12. When the user U designates only the lyrics L without designating the song attributes (designation example 1), or when the user U designates one of a plurality of song attributes together with the lyrics L (designation examples 2 to 2) A specific example of generation of attribute information z will be described in detail below for 4).

[指定例1]利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合
管理装置30の記憶装置34は、歌唱音声の生成に利用可能な複数の声質の各々について、当該声質の歌唱音声の楽曲が過去に生成された履歴(以下「生成履歴」という)HAを記憶する。具体的には、任意の1種類の声質の生成履歴HAは、例えば当該声質の歌唱音声(後述の歌唱データDA)が過去の所定期間(例えば直近の所定長の期間)内に生成された回数である。例えば、利用者Uの端末装置12から過去に送信された指示情報Xで当該声質が指定された回数(すなわち利用者U自身が嗜好する声質の傾向)や、任意の複数の端末装置12から過去に送信された指示情報Xで当該声質が指定された回数(すなわち多数の利用者が嗜好する声質の傾向)が生成履歴HAとして記憶される。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合、情報管理部62は、複数の声質のうち生成履歴HAが示す回数が最多である声質を選択し、当該声質を指示する属性情報zAを生成する。すなわち、利用者U自身または多数の利用者が過去に多用した声質が属性情報zAで指示される。
[Specification example 1] When the user U designates only the lyrics L without designating the music attribute, the storage device 34 of the management device 30 sets the voice quality of each of a plurality of voice qualities that can be used to generate the singing voice. A history (hereinafter referred to as “generation history”) HA in which songs of the singing voice have been generated in the past is stored. Specifically, the generation history HA of any one kind of voice quality is, for example, the number of times that the voice of the voice quality (single data DA described later) is generated within a past predetermined period (for example, the latest predetermined length period). It is. For example, the number of times that the voice quality is designated by the instruction information X transmitted in the past from the terminal device 12 of the user U (that is, the tendency of the voice quality that the user U prefers) or the past from any of the plurality of terminal devices 12 The number of times that the voice quality is designated by the instruction information X transmitted to (that is, the tendency of voice quality preferred by many users) is stored as the generation history HA. When the user U designates only the lyrics L without designating the music attribute, the information management unit 62 selects the voice quality with the highest number of times indicated by the generation history HA from the plurality of voice qualities, and instructs the voice quality. Attribute information zA is generated. That is, the attribute information zA indicates the voice quality frequently used in the past by the user U himself or many users.

また、記憶装置34は、自動作曲処理で生成可能な楽曲の複数のジャンルの各々について、当該ジャンルの楽曲が過去に生成された履歴(以下「生成履歴」という)HBを記憶する。具体的には、任意の1種類のジャンルの生成履歴HBは、例えば当該ジャンルの楽曲(後述の伴奏データDB)が過去の所定期間内に生成された回数である。例えば、利用者Uの端末装置12から過去に送信された指示情報Xで当該ジャンルが指定された回数(すなわち利用者U自身が嗜好するジャンルの傾向)や、任意の複数の端末装置12から過去に送信された指示情報Xで当該ジャンルが指定された回数(すなわち多数の利用者が嗜好するジャンルの傾向)が生成履歴HBとして記憶される。利用者Uが楽曲属性を指定せずに歌詞Lのみを指定した場合、情報管理部62は、複数のジャンルのうち生成履歴HBが示す回数の降順で所定数のジャンル(過去に多用されたジャンル)を選択し、所定数のジャンルからランダムに選択した1個のジャンル(以下「選択ジャンル」という)を指示する属性情報zBを生成する。また、情報管理部62は、選択ジャンルに相応しい複数の曲調の何れかをランダムに選択し、当該曲調を指示する属性情報zCを生成する。例えば、選択ジャンルが「ロック」である場合には「明るい」「激しい」等の複数の候補からランダムに選択された曲調が属性情報zCで指示され、選択ジャンルが「バラード」である場合には「優しい」「悲しい」等の複数の候補からランダムに選択された曲調が属性情報zCで指示される。以上の例示の通り、指定例1では、利用者Uによる楽曲属性の指定が不要であるから、利用者Uが所望の楽曲属性を思案する負担を軽減して簡便に楽曲を生成できるという利点がある。   Further, the storage device 34 stores, for each of a plurality of genres of music that can be generated by the automatic music processing, a history (hereinafter referred to as “generation history”) HB in which music of the genre is generated in the past. Specifically, the generation history HB of any one type of genre is, for example, the number of times that a genre of music (accompaniment data DB described later) has been generated in a past predetermined period. For example, the number of times that the genre is specified by the instruction information X transmitted in the past from the terminal device 12 of the user U (that is, the tendency of the genre that the user U likes) or the past from any of the plurality of terminal devices 12. The number of times that the genre is designated by the instruction information X transmitted to (i.e., the tendency of the genre that many users prefer) is stored as the generation history HB. When the user U designates only the lyrics L without designating the music attribute, the information management unit 62 selects a predetermined number of genres (genres frequently used in the past) in descending order of the number of times indicated by the generation history HB among a plurality of genres. ) To generate attribute information zB indicating one genre randomly selected from a predetermined number of genres (hereinafter referred to as “selected genres”). In addition, the information management unit 62 randomly selects any one of a plurality of tunes suitable for the selected genre, and generates attribute information zC indicating the tune. For example, when the selected genre is “Rock”, the tone selected at random from a plurality of candidates such as “Bright” and “Intense” is indicated by the attribute information zC, and when the selected genre is “Ballade” The tone information randomly selected from a plurality of candidates such as “gentle” and “sad” is indicated by the attribute information zC. As described above, in the designation example 1, it is not necessary to specify the music attributes by the user U. Therefore, there is an advantage that the music can be easily generated while reducing the burden of the user U thinking about the desired music attributes. is there.

[指定例2]利用者Uが歌詞Lおよび声質(属性情報xA)のみを指定した場合
利用者Uが楽曲のジャンルおよび曲調を指定せずに歌詞Lおよび声質のみを指定した場合、情報管理部62は、指示情報Xの属性情報xAで指定された声質を制御情報Zの属性情報zAでも同様に指示する。すなわち、利用者Uが指定した声質が属性情報zAで指示される。なお、利用者Uが指定した声質について複数の候補がある場合、情報管理部62は、複数の候補の何れかを、前述の例示と同様に生成履歴HA(利用者U自身または多数の利用者による声質の選択傾向)に応じて選択する。また、情報管理部62は、指定例1と同様の方法で楽曲のジャンルおよび曲調を選択して属性情報zBおよび属性情報zCを設定する。
[Specification example 2] When user U specifies only lyrics L and voice quality (attribute information xA)
When the user U designates only the lyrics L and the voice quality without designating the genre and tone of the music, the information management unit 62 uses the voice quality designated by the attribute information xA of the instruction information X as the attribute information zA of the control information Z. But I give the same instructions. That is, the voice quality designated by the user U is indicated by the attribute information zA. When there are a plurality of candidates for the voice quality designated by the user U, the information management unit 62 selects any one of the plurality of candidates as in the above-described example by using the generation history HA (the user U itself or a number of users). Select according to voice quality selection tendency). Further, the information management unit 62 selects the genre and tune of the music in the same manner as in the specification example 1, and sets the attribute information zB and the attribute information zC.

以上に例示した指定例2では、利用者Uが指定した声質が属性情報zAで指示されるとともに声質以外の楽曲属性の属性情報z(zB,zC)は情報管理部62で補足されるから、声質以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望の声質の歌唱音声の楽曲を生成できるという利点がある。   In the specification example 2 exemplified above, the voice quality designated by the user U is indicated by the attribute information zA, and the attribute information z (zB, zC) of the music attribute other than the voice quality is supplemented by the information management unit 62. There is an advantage that it is possible to generate a song of singing voice having a desired voice quality of the user U while reducing the burden on the user U who designates a music attribute other than the voice quality.

[指定例3]利用者Uが歌詞Lおよびジャンル(属性情報xB)のみを指定した場合
利用者Uが声質および曲調を指定せずに歌詞Lおよびジャンルのみを指定した場合、情報管理部62は、指示情報Xの属性情報xBで指示されたジャンルを制御情報Zの属性情報zBでも同様に指示する。すなわち、利用者Uが指定したジャンルが属性情報zBで指示される。
[Specification Example 3] When user U specifies only lyrics L and genre (attribute information xB)
When the user U designates only the lyrics L and the genre without designating the voice quality and tone, the information management unit 62 applies the genre designated by the attribute information xB of the instruction information X in the attribute information zB of the control information Z as well. To instruct. That is, the genre designated by the user U is indicated by the attribute information zB.

また、情報管理部62は、記憶装置34に記憶された声質毎の生成履歴HAを参照することで、指示情報Xの属性情報xBで指示されたジャンルの楽曲の生成にて過去に多用された声質(例えば当該ジャンルの楽曲の生成で使用された回数が最多である声質)を選択し、当該声質を指示する属性情報zAを生成する。属性情報zCが指示する曲調の選択は指定例1と同様である。   In addition, the information management unit 62 refers to the generation history HA for each voice quality stored in the storage device 34, and has been frequently used in the past in the generation of music of the genre indicated by the attribute information xB of the instruction information X. A voice quality (for example, a voice quality that is used most frequently in the generation of music of the genre) is selected, and attribute information zA that indicates the voice quality is generated. The selection of the tone of music indicated by the attribute information zC is the same as in the designation example 1.

以上に例示した指定例3では、利用者Uが指定したジャンルが属性情報zBで指示されるとともにジャンル以外の楽曲属性の属性情報z(zA,zC)は情報管理部62で補足されるから、ジャンル以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望のジャンルの楽曲を生成できるという利点がある。   In the specification example 3 exemplified above, the genre designated by the user U is indicated by the attribute information zB, and the attribute information z (zA, zC) of the music attribute other than the genre is supplemented by the information management unit 62. There is an advantage that music of a desired genre of the user U can be generated while reducing the burden on the user U who designates a music attribute other than the genre.

[指定例4]利用者Uが歌詞Lおよび曲調(属性情報xC)のみを指定した場合
利用者Uが声質およびジャンルを指定せずに歌詞Lおよび曲調のみを指定した場合、情報管理部62は、指示情報Xの属性情報xCで指定された曲調を制御情報Zの属性情報zCでも同様に指定する。すなわち、利用者Uが指定した曲調が属性情報zCで指定される。
[Specification Example 4] When user U specifies only lyrics L and tone (attribute information xC)
When the user U designates only the lyrics L and the tone without designating the voice quality and genre, the information management unit 62 applies the tone specified by the attribute information xC of the instruction information X in the attribute information zC of the control information Z as well. Is specified. That is, the music tone designated by the user U is designated by the attribute information zC.

また、情報管理部62は、属性情報zCが指定する曲調に相応しい複数のジャンルのうち過去に多用されたジャンル(例えば過去の楽曲の生成で使用された回数が最多であるジャンル)を選択し、制御情報Zの属性情報zBで当該ジャンルを指定する。例えば、属性情報zCが指定する曲調が「激しい」である場合、「ロック」に対応する複数のジャンルの何れかが選択され、曲調が「優しい」である場合、「バラード」に対応する複数のジャンルの何れかが選択される。属性情報zAが指定する声質の選択は指定例1と同様である。   In addition, the information management unit 62 selects a genre frequently used in the past (for example, a genre that has been used most frequently in the generation of past music) among a plurality of genres suitable for the tone specified by the attribute information zC, The genre is designated by the attribute information zB of the control information Z. For example, when the tune specified by the attribute information zC is “violent”, any of a plurality of genres corresponding to “rock” is selected, and when the tune is “friendly”, a plurality of tunes corresponding to “ballad” are selected. One of the genres is selected. The selection of the voice quality designated by the attribute information zA is the same as in the designation example 1.

以上に例示した指定例4では、利用者Uが指定した曲調が属性情報zCで指定されるとともに曲調以外の楽曲属性の属性情報z(zA,zB)は情報管理部62で補足されるから、曲調以外の楽曲属性を指定する利用者Uの負担を軽減しながら、利用者Uの所望の曲調の楽曲を生成できるという利点がある。   In the designation example 4 exemplified above, the music tone designated by the user U is designated by the attribute information zC, and the attribute information z (zA, zB) of the music attribute other than the music tone is supplemented by the information management unit 62. There is an advantage that it is possible to generate a musical piece having a desired musical tone of the user U while reducing a burden on the user U who designates a musical piece attribute other than the musical tone.

以上に例示した手順(指定例1〜指定例4)で情報管理部62が生成したN個の制御情報Zが通信装置36から処理装置40に送信される。前述の通り、制御情報Zで指定される各楽曲属性はランダムに選択され得るから、歌詞LはN個の制御情報Zにわたり共通する一方、属性情報zが指定する楽曲属性(声質,ジャンル,曲調)は制御情報Z毎に相違し得る。すなわち、管理装置30の情報管理部62がN個の制御情報Zを送信することで、歌詞Lは共通するが楽曲属性は相違するN個の楽曲の生成が処理装置40に対して指示される。   N pieces of control information Z generated by the information management unit 62 in the procedure illustrated above (Specification Example 1 to Specification Example 4) are transmitted from the communication device 36 to the processing device 40. As described above, since each music attribute specified by the control information Z can be selected at random, the lyrics L are common to N pieces of control information Z, while the music attributes (voice quality, genre, music tone) specified by the attribute information z. ) May differ for each control information Z. That is, when the information management unit 62 of the management apparatus 30 transmits N pieces of control information Z, the processing apparatus 40 is instructed to generate N pieces of music having the same lyrics L but different music attributes. .

図4に例示される通り、処理装置40は、制御装置42と記憶装置44と通信装置46とを具備する。通信装置46は、通信網14を介して(または直接的に)管理装置30と通信する。記憶装置44は、例えば磁気記録媒体や半導体記録媒体等の公知の記録媒体で構成され、制御装置42が実行するプログラムや制御装置42が使用する各種のデータを記憶する。制御装置42は、処理装置40の動作を統括的に制御する。第1実施形態の制御装置42は、記憶装置44に記憶されたプログラムを実行することで楽曲生成部66として機能する。   As illustrated in FIG. 4, the processing device 40 includes a control device 42, a storage device 44, and a communication device 46. The communication device 46 communicates with the management device 30 via the communication network 14 (or directly). The storage device 44 is composed of a known recording medium such as a magnetic recording medium or a semiconductor recording medium, and stores a program executed by the control device 42 and various data used by the control device 42. The control device 42 comprehensively controls the operation of the processing device 40. The control device 42 according to the first embodiment functions as the music generation unit 66 by executing a program stored in the storage device 44.

図5は、楽曲生成部66の構成図である。楽曲生成部66は、通信装置46が管理装置30から受信したN個の制御情報Zの各々を適用した自動作曲処理で、相異なる制御情報Zに対応するN個の楽曲の楽曲データDを生成する。すなわち、楽曲生成部66は、複数の楽曲の楽曲データを生成する要素(楽曲生成手段)の一例である。図5に例示される通り、第1実施形態の楽曲生成部66は、旋律生成部72と音声合成部74と伴奏生成部76と音響処理部78とを包含する。   FIG. 5 is a configuration diagram of the music generation unit 66. The music generation unit 66 generates the music data D of N pieces of music corresponding to the different control information Z by the automatic music processing to which each of the N pieces of control information Z received by the communication device 46 from the management device 30 is applied. To do. That is, the music generation unit 66 is an example of an element (music generation means) that generates music data of a plurality of music. As illustrated in FIG. 5, the music generation unit 66 of the first embodiment includes a melody generation unit 72, a voice synthesis unit 74, an accompaniment generation unit 76, and an acoustic processing unit 78.

旋律生成部72は、制御情報Zで指示されるN個の楽曲の各々について旋律(メロディ)Mを生成する。旋律Mは、歌唱パートを構成する複数の音符の時系列であり、例えばMIDI(Musical Instrument Digital Interface)形式に準拠した時系列データで記述される。旋律Mを構成する各音符については音高と発音期間(例えば開始点および継続長)とが指定される。第1実施形態の旋律生成部72は、N個の制御情報Zの各々について、当該制御情報Zの属性情報zCで指示される曲調の旋律Mを生成する。旋律Mの生成には公知の技術が任意に採用され得るが、例えば特許文献1に開示された方法が好適である。具体的には、相異なる複数の音高列(音高の時系列)が曲調毎に用意され、属性情報zCが指定する曲調に対応する複数の音高列からランダムに選択された音高列の各音高を複数の発音区間の各々に順次に付与(譜割)することで旋律Mが生成される。したがって、N個の楽曲の相互間で旋律Mは相違し得る。   The melody generation unit 72 generates a melody (melody) M for each of the N pieces of music indicated by the control information Z. The melody M is a time series of a plurality of notes constituting the singing part, and is described by time series data conforming to a MIDI (Musical Instrument Digital Interface) format, for example. For each note constituting the melody M, a pitch and a sound generation period (for example, a start point and a continuation length) are designated. The melody generation unit 72 of the first embodiment generates a melody M of melody indicated by the attribute information zC of the control information Z for each of the N pieces of control information Z. For generating the melody M, a known technique can be arbitrarily adopted. For example, the method disclosed in Patent Document 1 is suitable. Specifically, a plurality of different pitch sequences (time series of pitches) are prepared for each tune, and the pitch sequence selected at random from a plurality of pitch sequences corresponding to the tune specified by the attribute information zC. The melody M is generated by sequentially assigning (placing) each of the pitches to the sound generation sections. Therefore, the melody M may be different among N pieces of music.

音声合成部74は、旋律生成部72が生成したN個の旋律Mの各々について、制御情報Zの属性情報zAで指定される声質により当該制御情報Zの歌詞Lを旋律Mで歌唱した歌唱音声の歌唱データDAを生成する。すなわち、音声合成部74は、歌唱音声の歌唱データを複数の楽曲の各々について生成する要素(音声合成手段)の一例である。第1実施形態の歌唱データDAは、歌唱音声の波形を表現する。   For each of the N melodies M generated by the melody generator 72, the voice synthesizer 74 sings the singing voice in which the lyrics L of the control information Z is sung by the melody M according to the voice quality specified by the attribute information zA of the control information Z. Singing data DA is generated. That is, the speech synthesizer 74 is an example of an element (speech synthesizer) that generates singing data of singing voice for each of a plurality of music pieces. The singing data DA of the first embodiment represents the waveform of the singing voice.

第1実施形態では、相異なる声質に対応する複数の音声ライブラリPが記憶装置44に記憶される。任意の1種類の声質に対応する音声ライブラリPは、当該声質の音声から採取された複数の音声素片(例えば単体音素または音素連鎖)で構成される。音声合成部74は、音声ライブラリPの音声素片を順次に接続する素片接続型の音声合成処理でN個の楽曲の各々の歌唱データDAを生成する。   In the first embodiment, a plurality of audio libraries P corresponding to different voice qualities are stored in the storage device 44. The speech library P corresponding to any one kind of voice quality is composed of a plurality of speech segments (for example, a single phoneme or a phoneme chain) collected from the speech of the voice quality. The speech synthesizer 74 generates singing data DA for each of the N pieces of music by a unit connection type speech synthesis process in which speech units of the speech library P are sequentially connected.

具体的には、音声合成部74は、記憶装置44の複数の音声ライブラリPのうち属性情報zAで指定された声質の音声ライブラリPを選択し、歌詞Lに対応する音声素片を当該音声ライブラリPから順次に選択する。そして、音声合成部74は、旋律Mを構成する各音符の音高および発音期間に各音声素片を調整したうえで時間軸上で相互に連結することで歌唱音声の歌唱データDAを生成する。以上の説明から理解される通り、制御情報Zの属性情報zA(指示情報Xの属性情報xA)は、複数の音声ライブラリPの何れかを指定する情報とも換言され得る。なお、音声合成処理の内容は以上の例示(素片接続型)に限定されない。例えばHMM(Hidden Markov Model)等の状態遷移モデルを利用した音声合成処理で歌唱データDAを生成することも可能である。   Specifically, the speech synthesizer 74 selects the speech library P having the voice quality specified by the attribute information zA from the plurality of speech libraries P in the storage device 44, and selects the speech unit corresponding to the lyrics L from the speech library. Select sequentially from P. Then, the speech synthesizer 74 adjusts each speech unit to the pitch of each note constituting the melody M and the pronunciation period, and generates the song data DA of the singing speech by connecting them on the time axis. . As understood from the above description, the attribute information zA of the control information Z (attribute information xA of the instruction information X) can be rephrased as information designating any one of the plurality of audio libraries P. Note that the content of the speech synthesis process is not limited to the above example (unit connection type). For example, the singing data DA can be generated by speech synthesis processing using a state transition model such as HMM (Hidden Markov Model).

図5の伴奏生成部76は、制御情報Zで指示されるN個の楽曲の各々について伴奏データDBを生成する。すなわち、伴奏生成部76は、伴奏音の伴奏データを複数の楽曲の各々について生成する要素(伴奏生成手段)の一例である。第1実施形態の伴奏データDBは楽曲の伴奏音の波形を表現する。記憶装置44には、相異なる複数のジャンルの各々について、当該ジャンルの伴奏音の時間波形を表現する複数の候補データが記憶される。第1実施形態の伴奏生成部76は、N個の制御情報Zの各々について、当該制御情報Zの属性情報zBで指示されるジャンルの複数の候補データの何れかを例えばランダムに伴奏データDBとして選択する。すなわち、N個の楽曲の各々について個別に伴奏データDBが生成される。   The accompaniment generation unit 76 of FIG. 5 generates accompaniment data DB for each of the N pieces of music indicated by the control information Z. In other words, the accompaniment generation unit 76 is an example of an element (accompaniment generation means) that generates accompaniment sound accompaniment data for each of a plurality of music pieces. The accompaniment data DB of the first embodiment represents the waveform of the accompaniment sound of the music. The storage device 44 stores, for each of a plurality of different genres, a plurality of candidate data representing the time waveform of the accompaniment sound of the genre. For each of the N pieces of control information Z, the accompaniment generator 76 of the first embodiment, for example, randomly selects one of a plurality of candidate data items of the genre indicated by the attribute information zB of the control information Z as the accompaniment data DB. select. That is, accompaniment data DB is individually generated for each of the N pieces of music.

図5の音響処理部78は、音声合成部74が生成した歌唱データDAと伴奏生成部76が生成した伴奏データDBとに応じた楽曲データDをN個の楽曲の各々について生成する。すなわち、歌唱データDAで表現される歌唱音声と伴奏データDBで表現される伴奏音との混合音を表す楽曲データDが生成される。具体的には、音響処理部78は、管理装置30から受信したN個の制御情報Zの各々について、当該制御情報Z(属性情報zA,属性情報zC)に応じて生成された歌唱データDAの歌唱音声と、当該制御情報Z(属性情報zB)に応じて生成された伴奏データDBの伴奏音との混合音を表現する楽曲データDを生成する。処理装置40が生成したN個の楽曲の楽曲データDは、通信装置46から管理装置30に転送されて記憶装置34に格納される。以上の説明から理解される通り、処理装置40の楽曲生成部66は、利用者Uからの指示(指示情報X)に応じた自動作曲処理により相異なるN個の楽曲の楽曲データDを生成する要素として包括的に表現される。   The sound processing unit 78 in FIG. 5 generates music data D for each of the N music pieces according to the singing data DA generated by the voice synthesis unit 74 and the accompaniment data DB generated by the accompaniment generation unit 76. That is, music data D representing a mixed sound of the singing voice expressed by the singing data DA and the accompaniment sound expressed by the accompaniment data DB is generated. Specifically, the acoustic processing unit 78 generates, for each of the N pieces of control information Z received from the management device 30, the song data DA generated according to the control information Z (attribute information zA, attribute information zC). Music data D representing a mixed sound of the singing voice and the accompaniment sound of the accompaniment data DB generated according to the control information Z (attribute information zB) is generated. Music data D of N pieces of music generated by the processing device 40 is transferred from the communication device 46 to the management device 30 and stored in the storage device 34. As understood from the above description, the music generation unit 66 of the processing device 40 generates music data D of N different music by the automatic music processing according to the instruction (instruction information X) from the user U. It is expressed comprehensively as an element.

図4に例示された管理装置30の楽曲提示部64は、処理装置40(楽曲生成部66)が楽曲データDを生成したN個の楽曲を利用者Uに提示する。すなわち、楽曲提示部64は、複数の楽曲を利用者に提示する要素(楽曲提示手段)の一例である。具体的には、楽曲提示部64は、図2の楽曲提示画面を表現する画像データGを生成して通信装置36から端末装置12に送信することで、端末装置12の表示装置24に楽曲提示画面を表示させる。図2に例示される通り、楽曲提示画面は領域A1と領域A2とを包含する画像である。領域A1には、利用者Uが指定した歌詞Lが表示される。   The music presentation unit 64 of the management device 30 illustrated in FIG. 4 presents the user U with N pieces of music for which the processing device 40 (music generation unit 66) has generated music data D. That is, the music presentation unit 64 is an example of an element (music presentation means) that presents a plurality of music to the user. Specifically, the music presentation unit 64 generates image data G that represents the music presentation screen of FIG. 2 and transmits the image data G to the terminal device 12 from the communication device 36, thereby presenting the music on the display device 24 of the terminal device 12. Display the screen. As illustrated in FIG. 2, the music presentation screen is an image including an area A1 and an area A2. In the area A1, the lyrics L designated by the user U are displayed.

領域A2は、相異なる楽曲に対応するN個の単位領域AUを包含する。任意の1個の楽曲の単位領域AUは、当該楽曲の楽曲番号(利用者Uが各楽曲を区別するための符号)と、当該楽曲のジャンルおよび曲調と、利用者Uによる操作を受付ける操作画像C1とを包含する。利用者Uは、操作装置23を利用して所望の楽曲の操作画像C1を操作することで、当該楽曲を選択して楽曲データDの再生を指示することが可能である。以上の説明から理解される通り、管理装置30の楽曲提示部64は、楽曲データDの再生候補としてN個の楽曲を利用者Uに提示する要素として機能する。楽曲提示部64は、記憶装置34に記憶されたN個の楽曲の楽曲データDのうち利用者Uが選択した選択曲の楽曲データDを通信装置36から端末装置12に送信する。端末装置12の制御装置20は、通信装置22が管理装置30から受信した楽曲データDを放音装置25に供給することで当該楽曲データDに応じた音響を放音装置25に再生させる。   The area A2 includes N unit areas AU corresponding to different music pieces. The unit area AU of an arbitrary piece of music includes a music number of the music (a code for the user U to distinguish each music), a genre and tone of the music, and an operation image that receives an operation by the user U. And C1. The user U can use the operation device 23 to operate the operation image C1 of the desired music, thereby selecting the music and instructing the reproduction of the music data D. As understood from the above description, the music presentation unit 64 of the management device 30 functions as an element that presents N songs to the user U as reproduction candidates for the music data D. The music presentation unit 64 transmits the music data D of the selected music selected by the user U among the music data D of the N music stored in the storage device 34 from the communication device 36 to the terminal device 12. The control device 20 of the terminal device 12 causes the sound emitting device 25 to reproduce sound corresponding to the music data D by supplying the music data D received by the communication device 22 from the management device 30 to the sound emitting device 25.

図6は、第1実施形態の動作の説明図である。端末装置12の利用者Uが操作装置23の操作で楽曲の歌詞Lおよび楽曲属性(声質,ジャンル,曲調)を指定すると(SA1)、制御装置20は、利用者Uからの指示に応じた指示情報Xを通信装置22から管理装置30に送信する(SA2)。利用者Uが指定した歌詞Lと利用者が指定した楽曲属性の属性情報x(xA,xB,xC)とが指示情報Xには包含される。   FIG. 6 is an explanatory diagram of the operation of the first embodiment. When the user U of the terminal device 12 designates the lyrics L and the music attributes (voice quality, genre, tone) of the music by operating the operation device 23 (SA1), the control device 20 gives an instruction according to the instruction from the user U. Information X is transmitted from the communication device 22 to the management device 30 (SA2). The instruction information X includes lyrics L designated by the user U and attribute information x (xA, xB, xC) of the music attributes designated by the user.

端末装置12から送信された指示情報Xを通信装置36が受信すると、管理装置30の情報管理部62は、相異なる楽曲に対応するN個の制御情報Zを指示情報Xから生成する(SA3)。各制御情報Zは、N個の制御情報Zにわたり共通する歌詞Lと、指示情報Xに応じて制御情報Z毎に個別に設定された属性情報z(zA,zB,zC)とを包含する。情報管理部62は、N個の制御情報Zを通信装置36から処理装置40に順次に送信する(SA4)。   When the communication device 36 receives the instruction information X transmitted from the terminal device 12, the information management unit 62 of the management device 30 generates N pieces of control information Z corresponding to different music pieces from the instruction information X (SA3). . Each control information Z includes lyrics L common to N pieces of control information Z, and attribute information z (zA, zB, zC) individually set for each control information Z according to the instruction information X. The information management unit 62 sequentially transmits N pieces of control information Z from the communication device 36 to the processing device 40 (SA4).

管理装置30から送信されたN個の制御情報Zを通信装置46が受信すると、処理装置40の楽曲生成部66は、N個の制御情報Zの各々について楽曲データDを生成する(SA5)。具体的には、前述の通り、属性情報zCで指定される曲調の旋律Mで歌詞Lを歌唱した属性情報zAの声質の歌唱音声と、属性情報zBで指定されるジャンルの伴奏音との混合音の楽曲データDが生成される。   When the communication device 46 receives the N pieces of control information Z transmitted from the management device 30, the music piece generating unit 66 of the processing device 40 generates music piece data D for each of the N pieces of control information Z (SA5). Specifically, as described above, a mixture of the voice of the attribute information zA voiced with the melody L of the melody specified by the attribute information zC and the accompaniment sound of the genre specified by the attribute information zB Sound music data D is generated.

他方、管理装置30の制御装置32は、N個の楽曲データDの生成が完了したか否か(すなわち自動作曲処理の進捗)を処理装置40に対して定期的に照会する(SA6)。N個の楽曲データDの生成が完了すると、処理装置40の制御装置42は、管理装置30からの照会に対する応答としてN個の楽曲データDを通信装置46から管理装置30に送信する(SA7)。管理装置30の楽曲提示部64は、処理装置40が生成したN個の楽曲データDを記憶装置34に記憶し(SA8)、N個の楽曲を提示するための楽曲提示画面の画像データGを生成して端末装置12に送信することでN個の楽曲を利用者Uに提示する(SA9)。端末装置12の制御装置32は、通信装置22が管理装置30から受信した画像データGで表現される図2の楽曲提示画面を表示装置24に表示させる(SA10)。   On the other hand, the control device 32 of the management device 30 periodically inquires of the processing device 40 whether or not the generation of the N pieces of music data D has been completed (that is, the progress of the automatic music processing) (SA6). When the generation of N music data D is completed, the control device 42 of the processing device 40 transmits N music data D from the communication device 46 to the management device 30 as a response to the inquiry from the management device 30 (SA7). . The music presentation unit 64 of the management device 30 stores the N pieces of music data D generated by the processing device 40 in the storage device 34 (SA8), and the image data G on the music presentation screen for presenting the N pieces of music. N pieces of music are presented to the user U by being generated and transmitted to the terminal device 12 (SA9). The control device 32 of the terminal device 12 causes the display device 24 to display the music presentation screen of FIG. 2 expressed by the image data G received by the communication device 22 from the management device 30 (SA10).

操作装置23に対する操作で利用者Uが任意の1個の楽曲(選択曲)を指定すると、端末装置12の制御装置20は、選択曲の指定を含む情報要求Rを通信装置22から管理装置30に送信する(SA11)。通信装置36が情報要求Rを受信すると、管理装置30の楽曲提示部64は、情報要求Rで指定された選択曲の楽曲データDを記憶装置34から取得し、当該楽曲データDを通信装置36から要求元の端末装置12に送信する(SA12)。端末装置12の制御装置32は、通信装置22が管理装置30から受信した楽曲データDを放音装置25に供給することで選択曲を再生させる(SA13)。すなわち、利用者が指定した歌詞Lを発音した歌唱音声が伴奏音に並行して再生される。   When the user U designates an arbitrary piece of music (selected music) by operating the operation device 23, the control device 20 of the terminal device 12 sends an information request R including the designation of the selected music from the communication device 22 to the management device 30. (SA11). When the communication device 36 receives the information request R, the music presentation unit 64 of the management device 30 acquires the music data D of the selected music specified by the information request R from the storage device 34, and the music data D is transmitted to the communication device 36. To the requesting terminal device 12 (SA12). The control device 32 of the terminal device 12 reproduces the selected song by supplying the music data D received by the communication device 22 from the management device 30 to the sound emitting device 25 (SA13). That is, the singing sound that pronounces the lyrics L designated by the user is reproduced in parallel with the accompaniment sound.

以上に説明した通り、第1実施形態では、利用者Uからの指示に応じた自動作曲処理で相異なるN個の楽曲の楽曲データDが生成され、楽曲データDの再生候補(利用者Uによる選択候補)としてN個の楽曲が利用者Uに提示される。したがって、1個の楽曲を生成する特許文献1の技術と比較して、利用者Uの意図や嗜好に合致した楽曲を利用者Uに提供できる可能性を増加させることが可能である。   As described above, in the first embodiment, the music data D of N different music pieces are generated by the automatic music processing according to the instruction from the user U, and the reproduction candidates of the music data D (by the user U) N pieces of music are presented to the user U as selection candidates). Therefore, it is possible to increase the possibility that the user U can be provided with music that matches the intention and preference of the user U, as compared with the technique of Patent Document 1 that generates one piece of music.

第1実施形態では、利用者Uが指定した共通の歌詞Lの歌唱音声を包含するN個の楽曲が生成されるから、利用者Uが指定した共通の歌詞で楽曲属性(声質,ジャンル,曲調)を相違させたN個の楽曲を利用者に提示できるという利点がある。第1実施形態では特に、利用者Uが指定した声質の歌唱音声が生成されるから、利用者の意図や嗜好に合致した声質の歌唱音声の楽曲を提供することが可能である。他方、利用者Uが声質を指定しない場合(例えば指定例1)には歌唱音声の生成履歴HAに応じた声質の歌唱音声が生成されるから、利用者Uによる声質の選択が必須である構成と比較して利用者Uの負荷を軽減しながら、生成履歴HAに応じた適切な声質を選択できるという利点がある。   In the first embodiment, since N pieces of music including the singing voice of the common lyrics L specified by the user U are generated, the music attributes (voice quality, genre, tone) are expressed by the common lyrics specified by the user U. ) Can be presented to the user in N pieces of music. In the first embodiment, in particular, since the singing voice having the voice quality designated by the user U is generated, it is possible to provide the song having the voice quality that matches the user's intention and preference. On the other hand, when the user U does not specify the voice quality (for example, designation example 1), since the voice of the voice quality corresponding to the singing voice generation history HA is generated, the selection of the voice quality by the user U is essential. There is an advantage that it is possible to select an appropriate voice quality according to the generation history HA while reducing the load on the user U as compared with the above.

また、第1実施形態では、利用者Uが指定したジャンルの伴奏音を包含するN個の楽曲が生成されるから、利用者の意図や嗜好に合致した伴奏音の楽曲を提供することが可能である。他方、利用者がジャンルを指定しない場合には生成履歴HBに応じたジャンルの伴奏音が生成されるから、利用者Uによるジャンルの選択が必須である構成と比較して利用者Uの負荷を軽減しながら、生成履歴HBに応じた適切なジャンルを選択できるという利点がある。   In the first embodiment, since N pieces of music including the accompaniment sound of the genre designated by the user U are generated, it is possible to provide the music of the accompaniment sound that matches the user's intention and preference. It is. On the other hand, if the user does not specify a genre, an accompaniment sound of a genre corresponding to the generation history HB is generated, so that the load on the user U is reduced compared to a configuration in which the user U must select a genre. There is an advantage that an appropriate genre can be selected according to the generation history HB while reducing.

<第2実施形態>
本発明の第2実施形態を以下に説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態で使用した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In addition, about the element which an effect | action and function are the same as that of 1st Embodiment in each form illustrated below, the code | symbol used in 1st Embodiment is diverted and each detailed description is abbreviate | omitted suitably.

第2実施形態の楽曲提示部64は、楽曲提示画面に提示されるN個の楽曲の提示の順番(すなわち楽曲提示画面における楽曲毎の単位領域AUの配列の順番)を変更可能である。具体的には、操作装置23に対する操作で利用者Uが複数の選択肢から選択した各種の情報に応じた順番で楽曲提示部64はN個の楽曲を提示する。第2実施形態では、楽曲生成履歴と位置情報と利用者情報と提示時刻と歌詞指定速度とを含む複数の情報の何れかを利用者Uが選択し得る場合を想定する。   The music presentation unit 64 of the second embodiment can change the order of presentation of N pieces of music presented on the music presentation screen (that is, the order of arrangement of the unit areas AU for each music on the music presentation screen). Specifically, the music presenting unit 64 presents N pieces of music in the order corresponding to various information selected by the user U from a plurality of options by operating the operation device 23. In the second embodiment, it is assumed that the user U can select any of a plurality of pieces of information including a music generation history, position information, user information, presentation time, and lyrics designation speed.

(1)楽曲生成履歴
楽曲生成履歴に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、楽曲生成部66が過去に楽曲データDを生成した履歴に応じてN個の楽曲の提示順を決定する。具体的には、記憶装置34に記憶された生成履歴HBが示す回数が多い楽曲(すなわち、利用者U自身または多数の利用者Uにより過去に選択された頻度が高いジャンルの楽曲)ほど上位に位置するようにN個の楽曲の提示順が決定される。例えば、利用者Uが過去に「ロック」のジャンルを指定した頻度が高い場合には「ロック」のジャンルの楽曲が上位に提示される。また、所定期間内(例えば直近の1週間以内)に多数の利用者が選択したジャンルの楽曲を上位に提示することも可能である。
(1) Music generation history When the user U selects the presentation of N pieces of music in the order corresponding to the music generation history, the music presentation unit 64 has a history in which the music generation unit 66 has generated the music data D in the past. The order of presentation of N pieces of music is determined according to the above. Specifically, a song having a higher number of times indicated by the generation history HB stored in the storage device 34 (that is, a song of a genre that is frequently selected by the user U or a large number of users U in the past) is ranked higher. The presentation order of N pieces of music is determined so as to be positioned. For example, when the frequency at which the user U designates the “Rock” genre in the past is high, the music of the “Rock” genre is presented at the top. It is also possible to present a genre of music selected by a large number of users within a predetermined period (for example, within the last week) at the top.

(2)位置情報
位置情報に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、例えばGPS(Global Positioning System)を利用した位置検出機能で生成された利用者Uの位置情報(経路,緯度)を端末装置12から取得し、当該位置情報に応じてN個の楽曲の提示順を決定する。具体的には、利用者Uが選択可能な複数のジャンルの各々について地理的な位置との相関が事前に設定され、利用者Uの位置との相関が高いジャンルの楽曲ほど上位に位置するようにN個の楽曲の提示順が決定される。例えば、利用者Uが南米に位置する場合には「サンバ」のジャンルの楽曲が上位に提示され、利用者Uが欧州に位置する場合には「カントリー」のジャンルの楽曲が上位に提示される。なお、利用者Uの位置を特定する方法は以上の例示(GPS)に限定されない。例えば、端末装置12のIP(Internet Protocol)アドレスから利用者Uの概略的な位置を推定する構成も採用され得る。
(2) Position information When the user U selects presentation of N pieces of music in the order according to the position information, the music presentation unit 64 is generated by a position detection function using, for example, GPS (Global Positioning System). The user U's location information (route, latitude) is acquired from the terminal device 12, and the presentation order of the N pieces of music is determined according to the location information. Specifically, a correlation with a geographical position is set in advance for each of a plurality of genres that can be selected by the user U, and a genre having a higher correlation with the position of the user U is positioned higher. The order in which N pieces of music are presented is determined. For example, when the user U is located in South America, the music of the “samba” genre is presented at the top, and when the user U is located in Europe, the music of the “country” genre is presented at the top. . In addition, the method of specifying the position of the user U is not limited to the above illustration (GPS). For example, a configuration in which the approximate position of the user U is estimated from the IP (Internet Protocol) address of the terminal device 12 may be employed.

(3)利用者情報
利用者情報に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、記憶装置34に事前に記憶された利用者情報に応じてN個の楽曲の提示順を決定する。利用者情報は、例えば利用者Uの出身地(例えば国籍)または居住地等の位置に関する位置情報を包含する。楽曲提示部64は、前述の例示と同様に、利用者情報に登録された位置情報が示す位置との相関が高いジャンルの楽曲ほど上位に位置するようにN個の楽曲の提示順を決定する。
(3) User information When the user U selects presentation of N pieces of music in the order corresponding to the user information, the music presentation unit 64 responds to the user information stored in advance in the storage device 34. To determine the presentation order of the N pieces of music. The user information includes, for example, location information regarding the location of the user U's birthplace (for example, nationality) or residence. Similar to the above-described example, the music presentation unit 64 determines the order of presentation of the N pieces of music so that the genre of music having a higher correlation with the position indicated by the position information registered in the user information is positioned higher. .

(4)提示時刻
提示時刻に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、楽曲提示画面を利用者Uに提示する時刻(提示時刻)に応じてN個の楽曲の提示順を決定する。具体的には、提示時刻が午前の時間帯に包含される場合には「明るい」の曲調の楽曲が上位に位置し、提示時刻が日中午後の時間帯に包含される場合には「激しい」の曲調の楽曲が上位に位置し、提示時刻が夜間の時間帯に包含される場合には「穏やか」の曲調の楽曲が上位に位置するように、N個の楽曲の提示順が決定される。
(4) Presentation time When the user U selects the presentation of N pieces of music in the order corresponding to the presentation time, the music presentation unit 64 sets the music presentation screen to the user U at the time (presentation time). Accordingly, the order of presentation of N pieces of music is determined. Specifically, when the presentation time is included in the morning time zone, a song with a “bright” tone is positioned at the top, and when the presentation time is included in the daytime afternoon time zone, The order of presentation of the N songs is determined so that the song with the tone of "" is positioned at the top and the song with the tone of "gentle" is positioned at the top when the presentation time is included in the night time zone. The

(5)歌詞指定速度
歌詞指定速度に応じた順番でのN個の楽曲の提示を利用者Uが選択した場合、楽曲提示部64は、操作装置23に対する操作で利用者Uが歌詞Lを指定する速度(歌詞指定速度)に応じてN個の楽曲の提示順を決定する。歌詞指定速度は、所定の時間内において利用者Uが入力した歌詞Lの文字数(例えばキーボードに対するタイピング速度)であり、端末装置12にて測定されたうえで楽曲提示部64に通知される。歌詞指定速度が高い利用者Uはテンポの速い楽曲を所望する可能性が高いという傾向が推定される。以上の傾向を考慮して、楽曲提示部64は、歌詞指定速度が高い場合にはテンポが速い楽曲が上位に位置し、歌詞指定速度が低い場合にはテンポが遅い楽曲が上位に位置するように、N個の楽曲の提示順を決定する。ただし、以上の例示とは逆に、歌詞指定速度が高い場合にはテンポが低い楽曲を上位に位置させることも可能である。
(5) Lyric designation speed When the user U selects presentation of N pieces of music in the order corresponding to the lyrics designation speed, the music presentation section 64 causes the user U to specify the lyrics L by an operation on the operation device 23. The order of presentation of N pieces of music is determined in accordance with the speed of performing (lyric designation speed). The lyric designation speed is the number of characters of the lyrics L (for example, typing speed with respect to the keyboard) input by the user U within a predetermined time, and is measured by the terminal device 12 and then notified to the music presentation unit 64. It is estimated that the user U who has a high lyric designation speed is likely to desire a song with a fast tempo. In consideration of the above tendency, the music presentation unit 64 is arranged such that a song with a fast tempo is positioned higher when the lyrics designation speed is high, and a song with a slower tempo is ranked higher when the lyrics designation speed is low. The order of presentation of N pieces of music is determined. However, contrary to the above example, when the lyrics designation speed is high, it is also possible to place a song with a low tempo at the top.

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、N個の楽曲を提示する順番が適宜に変更されるから、N個の楽曲を多様な観点で優先的に利用者Uに提示できるという利点がある。なお、N個の楽曲の提示順に反映される情報は以上の例示(楽曲生成履歴,位置情報,利用者情報,提示時刻,歌詞指定速度)に限定されない。   In the second embodiment, the same effect as in the first embodiment is realized. Moreover, in 2nd Embodiment, since the order which shows N music is changed suitably, there exists an advantage that N music can be preferentially shown to the user U from various viewpoints. Note that the information reflected in the order of presentation of the N pieces of music is not limited to the above examples (music generation history, position information, user information, presentation time, lyrics designation speed).

<第3実施形態>
図7は、第3実施形態における楽曲提示画面の説明図である。図7に例示される通り、第3実施形態の楽曲提示画面は、時間軸上の相異なる区間(以下「単位区間」という)に対応する複数の単位領域Bを包含する。単位区間は、例えば所定個の小節に相当する時間長の区間である。任意の1個の単位区間に対応する単位領域Bは、領域B1と領域B2とを包含する。図7に例示される通り、利用者Uが指定した歌詞Lは単位区間毎に複数の部分(文字列)λに区分され、任意の1個の単位区間に対応する単位領域Bの領域B1には、歌詞Lのうち当該単位区間に対応する部分λが表示される。なお、歌詞Lを複数の部分λに区分する方法は任意である。例えば、利用者Uが各部分λを個別に指定する方法や、相前後する部分λの境界を利用者Uが指定する方法が採用される。また、所定の文字数を単位として歌詞Lを区分することや、形態素解析等の公知の自然言語処理で特定された意味的な纏まりを単位として歌詞Lを区分することも可能である。
<Third Embodiment>
FIG. 7 is an explanatory diagram of a music presentation screen in the third embodiment. As illustrated in FIG. 7, the music presentation screen of the third embodiment includes a plurality of unit regions B corresponding to different sections (hereinafter referred to as “unit sections”) on the time axis. The unit section is a section having a time length corresponding to a predetermined number of bars, for example. A unit region B corresponding to an arbitrary unit section includes a region B1 and a region B2. As illustrated in FIG. 7, the lyrics L designated by the user U are divided into a plurality of parts (character strings) λ for each unit section, and are divided into a region B1 of the unit area B corresponding to any one unit section. Indicates the part λ of the lyrics L corresponding to the unit section. The method of dividing the lyrics L into a plurality of parts λ is arbitrary. For example, a method in which the user U individually designates each part λ or a method in which the user U designates a boundary between successive parts λ is adopted. It is also possible to classify the lyrics L in units of a predetermined number of characters, or to classify the lyrics L in units of a semantic group specified by known natural language processing such as morphological analysis.

第3実施形態の処理装置40の楽曲生成部66は、時間軸上の複数の単位区間の各々について相異なるN個の楽曲の楽曲データDを生成する。具体的には、楽曲生成部66は、第1実施形態と同様にN個の楽曲の楽曲データDを生成する処理を、複数の単位区間の各々について順次に実行することで、単位区間毎にN個の楽曲データDを生成する。ただし、任意の1個の単位区間における歌唱データDAの生成(音声合成処理)には、歌詞Lのうち当該単位区間に対応する部分が適用される。なお、図8では単位区間毎の楽曲の総数Nが複数の単位区間にわたり共通する場合を例示するが、楽曲の総数Nを単位区間毎に相違させることも可能である。   The music generation unit 66 of the processing device 40 of the third embodiment generates music data D of N different music pieces for each of a plurality of unit sections on the time axis. Specifically, the music generation unit 66 executes the process of generating the music data D of N pieces of music in the same manner as in the first embodiment for each of the unit sections by sequentially executing the process for each of the plurality of unit sections. N pieces of music data D are generated. However, the part corresponding to the unit section of the lyrics L is applied to the generation (speech synthesis process) of the song data DA in any one unit section. In addition, although the case where the total number N of the music for every unit section is common over several unit sections is illustrated in FIG. 8, it is also possible to make the total number N of music differ for every unit section.

図7に例示される通り、楽曲提示画面のうち任意の1個の単位区間に対応する単位領域Bの領域B2には、当該単位区間について楽曲生成部66が生成したN個の楽曲の各々を表象する楽曲画像C2が表示される。利用者Uは、操作装置23を利用して単位区間毎にN個の楽曲のうち所望の楽曲の楽曲画像C2を操作することで、当該楽曲の楽曲データDの再生を指示することが可能である。管理装置30の楽曲提示部64は、単位区間毎に記憶装置34に記憶されたN個の楽曲の楽曲データDのうち利用者Uによる選択曲の楽曲データDを通信装置36から端末装置12に送信することで放音装置25に再生させる。すなわち、単位区間毎の選択曲を複数の単位区間にわたり配列した1個の楽曲が構成される。以上の説明から理解される通り、第3実施形態の楽曲生成部66は、複数の単位区間の各々について、当該単位区間における楽曲データDの再生候補としてN個の楽曲を利用者Uに提示する要素として機能する。   As illustrated in FIG. 7, each of the N pieces of music generated by the music generation unit 66 for the unit section is stored in the area B <b> 2 of the unit area B corresponding to any one unit section of the music presentation screen. A music image C2 to be represented is displayed. The user U can instruct the reproduction of the music data D of the music by operating the music image C2 of the desired music among the N music for each unit section using the operation device 23. is there. The music presentation unit 64 of the management device 30 transmits the music data D of the music selected by the user U among the music data D of N pieces of music stored in the storage device 34 from the communication device 36 to the terminal device 12 for each unit section. The sound emission device 25 is made to reproduce by transmitting. That is, one piece of music in which selected songs for each unit section are arranged over a plurality of unit sections is configured. As understood from the above description, the music generation unit 66 of the third embodiment presents N pieces of music to the user U as reproduction candidates for the music data D in each unit section for each of the plurality of unit sections. Acts as an element.

第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、単位区間毎にN個の楽曲の楽曲データDが生成されるから、各単位区間の選択曲を複数の単位区間にわたり時系列に連結した1個の楽曲を構成することが可能である。   In the third embodiment, the same effect as in the first embodiment is realized. In the third embodiment, since music data D of N pieces of music is generated for each unit section, one piece of music in which the selected pieces of each unit section are connected in time series over a plurality of unit sections is formed. It is possible.

なお、単位区間毎のN個の楽曲の提示順の選定には第2実施形態と同様の方法が採用され得る。また、歌詞Lのうち各単位区間の部分λの内容に応じて当該単位区間のN個の楽曲の提示順を決定することも可能である。具体的には、歌詞Lのうち任意の1個の単位区間の部分λの意味や情感に相関するジャンルまたは曲調の楽曲を上位に提示する構成が好適である。例えば、図8に例示される通り、歌詞Lの部分λが「晴れです。」である単位区間については、当該部分λの意味または情感に相関する「明るい」の曲調の楽曲が「寂しい」の曲調の楽曲と比較して上位に提示され、歌詞Lの部分λが「雨です。」である単位区間については、当該部分λの意味または情感に相関する「寂しい」の曲調の楽曲が「明るい」の曲調の楽曲と比較して上位に提示される。以上の構成によれば、歌詞Lの各部分λに調和する曲調の楽曲を利用者Uが選択し易いという利点がある。   Note that the same method as in the second embodiment can be adopted for selecting the presentation order of N pieces of music for each unit section. In addition, according to the contents of the part λ of each unit section in the lyrics L, it is also possible to determine the order of presentation of N pieces of music in the unit section. Specifically, a configuration in which music of a genre or a melody that correlates with the meaning or feeling of the part λ of any one unit section in the lyrics L is preferred. For example, as illustrated in FIG. 8, for a unit section in which the part λ of the lyrics L is “sunny”, a song with a “bright” tone that correlates with the meaning or feeling of the part λ is “lonely”. For a unit section that is presented at a higher rank than the music in the melody and the part λ of the lyrics L is “rainy”, the music in the “lonely” melody that correlates with the meaning or feeling of the part λ is “bright” "Is presented at a higher rank than the music with the tone of". " According to the above configuration, there is an advantage that it is easy for the user U to select a music piece in tune that harmonizes with each part λ of the lyrics L.

<変形例>
以上に例示した各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification>
Each form illustrated above can be variously modified. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined as long as they do not contradict each other.

(1)制御情報Zで指示される楽曲属性の種類は前述の例示(声質,ジャンル,曲調)に限定されない。例えば、楽曲のテンポを制御情報Zの属性情報zで指示することも可能である。楽曲生成部66は、属性情報zで指示されたテンポの楽曲の楽曲データDを生成する。利用者Uがテンポを指定した場合には当該テンポが属性情報zにて指示され、利用者Uがテンポを指定しない場合には、属性情報zBが指定するジャンルに応じたテンポが属性情報zにて指示される。すなわち、楽曲のジャンル毎に好適なテンポが事前に決定され、属性情報zBが指定するジャンルに対応するテンポが選択される。例えば、楽曲が「ロック」のジャンルである場合には「バラード」と比較して速いテンポが設定される。 (1) The type of music attribute indicated by the control information Z is not limited to the above-described examples (voice quality, genre, music tone). For example, the tempo of the music can be indicated by the attribute information z of the control information Z. The music generation unit 66 generates music data D of the music with the tempo designated by the attribute information z. When the user U designates the tempo, the tempo is designated by the attribute information z. When the user U does not designate the tempo, the tempo corresponding to the genre designated by the attribute information zB is displayed in the attribute information z. Is instructed. That is, a suitable tempo is determined in advance for each genre of music, and a tempo corresponding to the genre specified by the attribute information zB is selected. For example, when the music is in the genre of “rock”, a faster tempo is set compared to “ballad”.

(2)楽曲生成部66が生成した複数の楽曲の楽曲データDを、利用者Uの端末装置12以外の任意の端末装置12にて再生できる構成(以下「構成A」という)も採用され得る。具体的には、管理装置30は、楽曲生成部66が生成したN個の楽曲データDを記憶装置34に順次に蓄積し、任意の端末装置12から要求された楽曲データDを要求元の端末装置12に送信する。 (2) A configuration (hereinafter referred to as “configuration A”) in which the music data D of a plurality of music generated by the music generation unit 66 can be reproduced by any terminal device 12 other than the terminal device 12 of the user U may be employed. . Specifically, the management device 30 sequentially accumulates the N pieces of music data D generated by the music generation unit 66 in the storage device 34, and the music data D requested from any terminal device 12 is the requesting terminal. Transmit to device 12.

(3)情報管理部62が楽曲のジャンルを決定する方法は以上の例示(指定例1,2,4)に限定されない。例えば、前述の構成Aでは、複数のジャンルのうち多数の端末装置12からの要求に応じて再生された回数が多い楽曲のジャンル(再生回数ランキングで上位に位置する楽曲のジャンル)を選択する構成が採用され得る。また、複数のジャンルのうち指示情報Xに応じて楽曲の楽曲データDを利用者Uに提供する時刻(例えば前述の提示時刻)に応じてジャンルを決定することも可能である。例えば、提示時刻が日中の時間帯に包含される場合には「ロック」のジャンルが選択され、提示時刻が夜間の時間帯に包含される場合には「バラード」のジャンルが選択される。 (3) The method by which the information management unit 62 determines the genre of music is not limited to the above examples (designation examples 1, 2, and 4). For example, in the above-described configuration A, a configuration in which a genre of a song that has been played back in response to a request from a large number of terminal devices 12 among a plurality of genres (a genre of a song that is ranked higher in the playback count ranking) is selected. Can be employed. It is also possible to determine the genre according to the time (for example, the aforementioned presentation time) when the music data D of the music is provided to the user U according to the instruction information X among a plurality of genres. For example, if the presentation time is included in the daytime period, the “lock” genre is selected, and if the presentation time is included in the nighttime period, the “ballad” genre is selected.

(4)前述の各形態では、管理装置30と処理装置40とを具備する楽曲生成システム10を楽曲生成装置の一形態として例示したが、管理装置30と処理装置40とが一体に構成された装置を楽曲生成装置として利用することも可能である。また、管理装置30および処理装置40の一方または双方を、相互に別体で構成された複数の装置で実現することも可能である。 (4) In each of the above-described embodiments, the music generation system 10 including the management device 30 and the processing device 40 has been exemplified as an embodiment of the music generation device. However, the management device 30 and the processing device 40 are integrally configured. It is also possible to use the device as a music generation device. Moreover, it is also possible to implement | achieve one or both of the management apparatus 30 and the processing apparatus 40 with the some apparatus comprised mutually separately.

(5)前述の各形態では、複数の声質のうち生成履歴HAが示す回数が最多である声質を選択したが、生成履歴HAに応じて声質を選択する方法は以上の例示に限定されない。例えば、生成履歴HAが示す回数が最少である1種類の声質を選択する構成や、当該回数の降順または昇順で選択された複数の声質の音声ライブラリPにわたり各音声素片を合成して歌唱データDAを生成する構成も採用され得る。また、前述の各形態では、複数のジャンルのうち生成履歴HBが示す回数の降順で上位に位置するジャンルを選択したが、生成履歴HBに応じてジャンルを選択する方法は以上の例示に限定されない。例えば、生成履歴HBが示す回数の昇順で上位に位置するジャンルを選択することも可能である。 (5) In each of the above-described embodiments, the voice quality with the highest number of times indicated by the generation history HA is selected from among a plurality of voice qualities. However, the method for selecting the voice quality according to the generation history HA is not limited to the above examples. For example, singing data by synthesizing each speech unit over a configuration in which one kind of voice quality with the minimum number of times indicated by the generation history HA is selected, or over a plurality of voice quality voice libraries P selected in descending or ascending order of the number of times. A configuration for generating DA may also be employed. Further, in each of the above-described embodiments, the genre positioned higher in the descending order of the number of times indicated by the generation history HB is selected from among the plurality of genres, but the method of selecting the genre according to the generation history HB is not limited to the above examples. . For example, it is possible to select a genre located at the top in ascending order of the number of times indicated by the generation history HB.

(6)前述の各形態における生成履歴HAおよび生成履歴HBには過去の楽曲データDの生成が累積的に反映されるが、生成履歴HAおよび生成履歴HBとしての有意性が確保される程度の充分な回数にわたり楽曲データDの生成が実行されていない初期的な段階(例えば初期出荷段階)では、例えば全国にわたる多数の利用者が過去に指定した結果の平均的な履歴やその時代の流行を反映した履歴を生成履歴HAおよび生成履歴HBとして設定することが可能である。 (6) The generation history HA and the generation history HB in each of the above-described forms are cumulatively reflected in the generation of the past music data D, but the significance as the generation history HA and the generation history HB is ensured. In the initial stage where the music data D has not been generated a sufficient number of times (for example, the initial shipping stage), for example, the average history of the results specified in the past by a large number of users throughout the country and the trends of that era are displayed. The reflected history can be set as the generation history HA and the generation history HB.

(7)前述の各形態では、楽曲の歌唱音声と伴奏音との混合音の時間波形を表す楽曲データDを例示したが、楽曲データDの形式は任意である。例えば、楽曲の複数の音符の各々について発音内容(歌詞)と音高と発音期間とを指定する音声合成用のファイル(例えばVSQ形式のファイル)と、楽曲の伴奏音の各音符の発音を時系列に指定する自動演奏用のファイル(例えばMIDI形式のファイル)とを含む楽曲データDを楽曲生成部66が生成することも可能である。 (7) In each of the above-described embodiments, the music data D representing the time waveform of the mixed sound of the singing voice and the accompaniment sound of the music is illustrated, but the format of the music data D is arbitrary. For example, a voice synthesis file (for example, a VSQ format file) that specifies pronunciation content (lyrics), pitch, and duration for each of a plurality of musical notes of a musical piece, and the pronunciation of each musical accompaniment note. It is also possible for the music generation unit 66 to generate music data D including a file for automatic performance (for example, a file in MIDI format) designated for the series.

(8)前述の各形態では、楽曲データDの再生候補としてN個の楽曲を利用者Uに提示したが、N個の楽曲を提示する目的(楽曲データDの用途)は楽曲データDの再生に限定されない。例えば、楽曲データDの配信候補(再生候補であることまでは必要とされない)としてN個の楽曲を提示する構成や、楽曲データDを他形式(例えばwav形式)に変換して利用者Uに配信する場合の変換候補としてN個の楽曲を提示する構成も採用され得る。以上の説明から理解される通り、前述の各形態における楽曲提示部64は、楽曲生成部66が楽曲データDを生成したN個の楽曲を利用者Uに提示する要素として包括的に表現される。 (8) In each embodiment described above, N pieces of music are presented to the user U as reproduction candidates for the music data D, but the purpose of presenting the N pieces of music (use of the music data D) is to reproduce the music data D. It is not limited to. For example, a configuration in which N pieces of music are presented as music data D distribution candidates (not required to be playback candidates), or music data D is converted to another format (for example, wav format) to the user U. A configuration in which N pieces of music are presented as conversion candidates for distribution may be employed. As can be understood from the above description, the music presentation unit 64 in each of the above-described forms is comprehensively expressed as an element that the music generation unit 66 presents N pieces of music for which the music data D is generated to the user U. .

10……楽曲生成システム(楽曲生成装置)、12……端末装置、14……通信網、20……制御装置、21……記憶装置、22……通信装置、23……操作装置、24……表示装置、25……放音装置、30……管理装置、32……制御装置、34……記憶装置、36……通信装置、40……処理装置、42……制御装置、44……記憶装置、46……通信装置、62……情報管理部、64……楽曲提示部、66……楽曲生成部、72……旋律生成部、74……音声合成部、76……伴奏生成部、78……音響処理部。
DESCRIPTION OF SYMBOLS 10 ... Music generation system (music generation device), 12 ... Terminal device, 14 ... Communication network, 20 ... Control device, 21 ... Storage device, 22 ... Communication device, 23 ... Operation device, 24 ... ... Display device, 25 ... Sound emitting device, 30 ... Management device, 32 ... Control device, 34 ... Storage device, 36 ... Communication device, 40 ... Processing device, 42 ... Control device, 44 ... Storage device 46 .. communication device 62 .. information management unit 64 .. music presentation unit 66 .. music generation unit 72 .. melody generation unit 74 .. speech synthesis unit 76 .. accompaniment generation unit 78. Acoustic processing unit.

Claims (5)

利用者からの指示に応じて相異なる複数の楽曲の楽曲データを生成する楽曲生成手段と、
前記楽曲生成手段が楽曲データを生成した前記複数の楽曲を利用者に提示する楽曲提示手段と
を具備する楽曲生成装置。
Music generation means for generating music data of a plurality of different music according to instructions from the user;
A music generating apparatus comprising: music presenting means for presenting the plurality of music generated by the music generating means to the user.
前記楽曲生成手段は、前記利用者が指定した共通の歌詞で楽曲を歌唱する歌唱音声の歌唱データを前記複数の楽曲の各々について生成する音声合成手段を含み、前記歌唱音声を含む楽曲の楽曲データを生成し、
前記音声合成手段は、利用者が指定した声質の前記歌唱音声の歌唱データを生成する一方、前記利用者が声質を指定しない場合に、歌唱音声の歌唱データの生成履歴に応じて選択された声質の前記歌唱音声の歌唱データを生成する
請求項1の楽曲生成装置。
The music generating means includes voice synthesizing means for generating, for each of the plurality of music pieces, singing data of a singing voice that sings the music with the common lyrics designated by the user, and music data of the music containing the singing voice Produces
The voice synthesis means generates the singing data of the singing voice of the voice quality specified by the user, while the voice quality selected according to the generation history of the singing voice singing data when the user does not specify the voice quality The song generation device according to claim 1, wherein the song data of the singing voice is generated.
前記楽曲生成手段は、前記利用者が指定したジャンルの伴奏音の伴奏データを前記複数の楽曲の各々について生成する一方、前記利用者がジャンルを指定しない場合に、伴奏データの生成履歴に応じて選択されたジャンルの伴奏音の伴奏データを生成する伴奏生成手段を含み、前記伴奏音を含む楽曲の楽曲データを生成する
請求項1または請求項2の楽曲生成装置。
The music generation means generates accompaniment data of the accompaniment sound of the genre designated by the user for each of the plurality of music pieces, and when the user does not designate a genre, according to the accompaniment data generation history The music generation device according to claim 1, further comprising accompaniment generation means for generating accompaniment data of the accompaniment sound of the selected genre, and generating music data of the music including the accompaniment sound.
前記楽曲提示手段は、前記楽曲生成手段による楽曲データの生成履歴、前記利用者に関する位置情報、および、前記複数の楽曲を提示する時刻、の少なくともひとつに応じた可変の順番で前記複数の楽曲を提示する
請求項1から請求項3の何れかの楽曲生成装置。
The music presentation means displays the music pieces in a variable order according to at least one of a generation history of music data by the music generation means, position information about the user, and a time at which the music pieces are presented. The music generating device according to any one of claims 1 to 3.
前記楽曲生成手段は、時間軸上の複数の単位区間の各々について、相異なる複数の楽曲の楽曲データを生成し、
前記楽曲提示手段は、前記複数の単位区間の各々について、前記楽曲生成手段が楽曲データを生成した前記複数の楽曲を前記利用者に提示する
請求項1から請求項4の何れかの楽曲生成装置。
The music generation means generates music data of a plurality of different music for each of the plurality of unit sections on the time axis,
The music generation device according to any one of claims 1 to 4, wherein the music presentation unit presents the plurality of pieces of music generated by the music generation unit for each of the plurality of unit sections to the user. .
JP2015040565A 2015-03-02 2015-03-02 Music generation apparatus and music generation method Active JP6596843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015040565A JP6596843B2 (en) 2015-03-02 2015-03-02 Music generation apparatus and music generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015040565A JP6596843B2 (en) 2015-03-02 2015-03-02 Music generation apparatus and music generation method

Publications (2)

Publication Number Publication Date
JP2016161774A true JP2016161774A (en) 2016-09-05
JP6596843B2 JP6596843B2 (en) 2019-10-30

Family

ID=56846843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015040565A Active JP6596843B2 (en) 2015-03-02 2015-03-02 Music generation apparatus and music generation method

Country Status (1)

Country Link
JP (1) JP6596843B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054064A1 (en) * 2018-09-14 2020-03-19 Dmet Products株式会社 Musical-composition editing system, and musical-composition editing method
JP2021182159A (en) * 2020-10-27 2021-11-25 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Synthesis method, synthesis device, electronic apparatus and storage medium for song multimedia
JP2022017561A (en) * 2017-06-14 2022-01-25 ヤマハ株式会社 Information processing unit, output method for singing voice, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126077A (en) * 1997-10-22 1999-05-11 Yamaha Corp Chord progress producing support apparatus and recording medium recorded with chord progress producing support program
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium
JP2003177751A (en) * 2001-10-05 2003-06-27 Yamaha Corp Playing data processing device
JP2005310312A (en) * 2004-04-23 2005-11-04 Sony Corp Music formation apparatus, music storing and reproducing apparatus, music formation method, and music storing and reproducing method
JP2010128304A (en) * 2008-11-28 2010-06-10 Daiichikosho Co Ltd Presentation system for area-by-area musical piece selection candidate
JP2013195699A (en) * 2012-03-19 2013-09-30 Yamaha Corp Singing synthesis device and singing synthesis program
JP2014013340A (en) * 2012-07-05 2014-01-23 Pioneer Electronic Corp Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device
JP2014170146A (en) * 2013-03-05 2014-09-18 Univ Of Tokyo Method and device for automatically composing chorus from japanese lyrics

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126077A (en) * 1997-10-22 1999-05-11 Yamaha Corp Chord progress producing support apparatus and recording medium recorded with chord progress producing support program
JP2000105595A (en) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd Singing device and recording medium
JP2003177751A (en) * 2001-10-05 2003-06-27 Yamaha Corp Playing data processing device
JP2005310312A (en) * 2004-04-23 2005-11-04 Sony Corp Music formation apparatus, music storing and reproducing apparatus, music formation method, and music storing and reproducing method
JP2010128304A (en) * 2008-11-28 2010-06-10 Daiichikosho Co Ltd Presentation system for area-by-area musical piece selection candidate
JP2013195699A (en) * 2012-03-19 2013-09-30 Yamaha Corp Singing synthesis device and singing synthesis program
JP2014013340A (en) * 2012-07-05 2014-01-23 Pioneer Electronic Corp Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device
JP2014170146A (en) * 2013-03-05 2014-09-18 Univ Of Tokyo Method and device for automatically composing chorus from japanese lyrics

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022017561A (en) * 2017-06-14 2022-01-25 ヤマハ株式会社 Information processing unit, output method for singing voice, and program
JP7424359B2 (en) 2017-06-14 2024-01-30 ヤマハ株式会社 Information processing device, singing voice output method, and program
WO2020054064A1 (en) * 2018-09-14 2020-03-19 Dmet Products株式会社 Musical-composition editing system, and musical-composition editing method
JP2021182159A (en) * 2020-10-27 2021-11-25 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Synthesis method, synthesis device, electronic apparatus and storage medium for song multimedia
JP7138222B2 (en) 2020-10-27 2022-09-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Song multimedia synthesizing method, synthesizing device, electronic device and storage medium

Also Published As

Publication number Publication date
JP6596843B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
US6528715B1 (en) Music search by interactive graphical specification with audio feedback
KR100658869B1 (en) Music generating device and operating method thereof
EP3047478B1 (en) Combining audio samples by automatically adjusting sample characteristics
EP3047479B1 (en) Automatically expanding sets of audio samples
CN106708894B (en) Method and device for configuring background music for electronic book
AU2016330618A1 (en) Machines, systems and processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptors
JP4168621B2 (en) Mobile phone device and mobile phone system using singing voice synthesis
JP2008164932A (en) Music editing device and method, and program
WO2006112584A1 (en) Music composing device
JP5974436B2 (en) Music generator
CN105740394A (en) Music generation method, terminal, and server
JP6260191B2 (en) Electronic musical instrument, program and pronunciation pitch selection method
JP6596843B2 (en) Music generation apparatus and music generation method
JP2001331175A (en) Device and method for generating submelody and storage medium
JP2016070999A (en) Karaoke effective sound setting system
JP5223433B2 (en) Audio data processing apparatus and program
JP5509536B2 (en) Audio data processing apparatus and program
JP2016206496A (en) Controller, synthetic singing sound creation device and program
JP6288197B2 (en) Evaluation apparatus and program
JP6102076B2 (en) Evaluation device
JP2013195699A (en) Singing synthesis device and singing synthesis program
KR102269591B1 (en) Apparatus and method for automatically composing music
JP7161301B2 (en) karaoke system
JP6074835B2 (en) Music practice support device
JP2018151548A (en) Pronunciation device and loop section setting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6596843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151