JP2015049253A - Voice synthesizing management device - Google Patents

Voice synthesizing management device Download PDF

Info

Publication number
JP2015049253A
JP2015049253A JP2013178514A JP2013178514A JP2015049253A JP 2015049253 A JP2015049253 A JP 2015049253A JP 2013178514 A JP2013178514 A JP 2013178514A JP 2013178514 A JP2013178514 A JP 2013178514A JP 2015049253 A JP2015049253 A JP 2015049253A
Authority
JP
Japan
Prior art keywords
point
time
speech
image
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013178514A
Other languages
Japanese (ja)
Other versions
JP6152753B2 (en
Inventor
入山 達也
Tatsuya Iriyama
達也 入山
誠 橘
Makoto Tachibana
橘  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013178514A priority Critical patent/JP6152753B2/en
Publication of JP2015049253A publication Critical patent/JP2015049253A/en
Application granted granted Critical
Publication of JP6152753B2 publication Critical patent/JP6152753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a work burden of a user who sets a variable applied to voice synthesizing.SOLUTION: A display control part makes a display device display an adjustment image 60 which contains an adjustment region 62 in which a first axis A1 representing mixing ratio between a first voice and a second voice at the time of synthesizing voices to be synthesized and a second axis A2 representing sound volume of the voice to be synthesized are set. An instruction accepting part accepts, from a user, instructions about an instruction point X1 and an instruction point X2 in the adjustment region 62. An information management part generates control information which represents temporal change in mixing ratio from a numerical value corresponding to the instruction point X1 on the first axis A1 to a numerical value corresponding to the instruction point X2 and a temporal change in sound volume from a numerical value corresponding to the instruction point X1 on the second axis A2 to a numerical value corresponding to the instruction point X2.

Description

本発明は、音声合成に適用される変数を管理する技術に関する。   The present invention relates to a technique for managing variables applied to speech synthesis.

事前に収録された音声から採取された複数の音声素片の集合(以下「音声ライブラリ」という)を利用して所望の音声を合成する素片接続型の音声合成技術が従来から提案されている。例えば特許文献1には、相異なる声質の音声に対応する2種類の音声ライブラリの各々の音声素片を混合(モーフィング)することで、既存の音声ライブラリの音声とは声質が相違する音声を合成する技術が開示されている。   Conventionally, a unit connection type speech synthesis technique for synthesizing desired speech using a set of a plurality of speech units (hereinafter referred to as “speech library”) collected from pre-recorded speech has been proposed. . For example, Patent Document 1 synthesizes speech having a voice quality different from that of an existing speech library by mixing (morphing) each speech unit of two types of speech libraries corresponding to speech of different voice qualities. Techniques to do this are disclosed.

特開平9−50295号公報Japanese Patent Laid-Open No. 9-50295

ところで、各音声素片の音量は音声ライブラリ毎に相違し得る。したがって、複数の音声素片の混合で生成された合成音声の音量は、各音声素片の混合比率に応じて変動する。例えば、音量が大きい傾向にある音声ライブラリ内の音声素片の比率を経時的に減少させるとともに、音量が小さい傾向にある音声ライブラリ内の音声素片の比率を経時的に増加させて両者を混合した場合、合成音声の音量は経時的に減少する。したがって、合成音声の音量を一定に維持するためには、混合比率の時間変化に連動するように利用者が合成音声の音量の時間変化を調整する必要があり、利用者の作業負担が大きいという問題がある。   By the way, the volume of each speech unit may be different for each speech library. Therefore, the volume of the synthesized speech generated by mixing a plurality of speech units varies depending on the mixing ratio of each speech unit. For example, while decreasing the proportion of speech units in an audio library that tends to be louder over time, the proportion of speech units in an audio library that tends to be lower in volume is increased over time to mix the two. In this case, the volume of the synthesized speech decreases with time. Therefore, in order to keep the volume of the synthesized voice constant, it is necessary for the user to adjust the time change of the volume of the synthesized voice so as to be interlocked with the time change of the mixing ratio, and the work burden on the user is heavy. There's a problem.

なお、以上の説明では便宜的に音量に着目したが、音量以外の音響特性についても同様の事情が妥当し得る。例えば、音高が高域側に知覚され易い傾向にある音声ライブラリの音声素片(明瞭で明るい雰囲気の音声)の比率を経時的に減少させるとともに、音高が低域側に知覚され易い傾向にある音声ライブラリの音声素片(例えば不明瞭で暗い雰囲気の音声)の比率を経時的に増加させて両者を混合した場合、受聴者が知覚する音高は経時的に低下する。したがって、合成音声の音高感を一定に維持するためには、混合比率の時間変化に連動するように利用者が合成音声の音高の時間変化を調整する必要がある。以上の事情を考慮して、本発明は、音声合成に適用される変数を設定する利用者の作業負担を軽減することを目的とする。   In the above description, the sound volume is focused for the sake of convenience, but the same situation can be applied to the acoustic characteristics other than the sound volume. For example, the ratio of speech units (sounds with a clear and bright atmosphere) in an audio library whose pitch tends to be perceived easily on the high frequency side is reduced over time, and the pitch tends to be easily perceived on the low frequency side. If the ratio of speech segments in the speech library (for example, unclear and dark atmosphere speech) is increased over time and mixed, the pitch perceived by the listener decreases over time. Therefore, in order to keep the pitch of the synthesized speech constant, the user needs to adjust the time variation of the pitch of the synthesized speech so as to be interlocked with the time variation of the mixing ratio. In view of the above circumstances, an object of the present invention is to reduce a work burden on a user who sets a variable applied to speech synthesis.

以上の課題を解決するために、本発明の第1態様に係る音声合成管理装置は、合成対象音声の合成時における第1音声と第2音声との混合比率を示す第1軸と、合成対象音声の音響特性に関する第1特性変数を示す第2軸とが設定された調整領域を含む調整画像を表示装置に表示させる表示制御手段と、調整領域内の第1指示点および第2指示点の指示を利用者から受付ける指示受付手段と、第1軸上で第1指示点に対応する数値から第2指示点に対応する数値への混合比率の時間変化と、第2軸上で第1指示点に対応する数値から第2指示点に対応する数値への第1特性変数の時間変化とを示す制御情報を生成する情報管理手段とを具備する。以上の構成では、第1音声と第2音声との混合比率を示す第1軸と、第1特性変数を示す第2軸とが設定された調整領域内に利用者から第1指示点および第2指示点が指示され、第1軸上で第1指示点に対応する数値から第2指示点に対応する数値への混合比率の時間変化と、第2軸上で第1指示点に対応する数値から第2指示点に対応する数値への第1特性変数の時間変化とを示す制御情報が生成される。したがって、利用者は、混合比率の時間変化と第1特性変数の時間変化とを並行的に指示することが可能である。すなわち、混合比率の時間変化と第1特性変数の時間変化とを個別的に指示する必要がある従来の構成と比較して、利用者の作業負担を軽減できるという利点がある。   In order to solve the above problems, the speech synthesis management device according to the first aspect of the present invention includes a first axis indicating a mixing ratio of the first speech and the second speech at the time of synthesis of the synthesis target speech, and a synthesis target. Display control means for displaying on the display device an adjustment image including an adjustment area in which a second axis indicating the first characteristic variable relating to the acoustic characteristics of the sound is set; and the first indication point and the second indication point in the adjustment area An instruction receiving means for receiving an instruction from the user, a time change in the mixing ratio from a numerical value corresponding to the first indicating point on the first axis to a numerical value corresponding to the second indicating point, and the first instruction on the second axis Information management means for generating control information indicating a time change of the first characteristic variable from a numerical value corresponding to the point to a numerical value corresponding to the second indication point. In the above configuration, the first indication point and the first indication from the user within the adjustment region in which the first axis indicating the mixing ratio of the first voice and the second voice and the second axis indicating the first characteristic variable are set. 2 indicating points are indicated, and the time change of the mixing ratio from the numerical value corresponding to the first indicating point on the first axis to the numerical value corresponding to the second indicating point and corresponding to the first indicating point on the second axis Control information indicating the time change of the first characteristic variable from the numerical value to the numerical value corresponding to the second indication point is generated. Therefore, the user can instruct the time change of the mixing ratio and the time change of the first characteristic variable in parallel. That is, there is an advantage that the work burden on the user can be reduced as compared with the conventional configuration in which it is necessary to individually indicate the time change of the mixing ratio and the time change of the first characteristic variable.

本発明の好適な態様において、情報管理手段は、合成対象音声のうち時間軸上の第1時点から第2時点までの期間について、第1軸上で第1指示点に対応する数値から第2指示点に対応する数値への混合比率の時間変化と、第2軸上で第1指示点に対応する数値から第2指示点に対応する数値への第1特性変数の時間変化とを示す制御情報を生成する。以上の態様では、合成対象音声のうち第1時点から第2時点までの特定の期間について混合比率および第1特性変数の時間変化を調整することが可能である。また、指示受付手段が第1時点および第2時点の指示を利用者から受付ける構成によれば、合成対象音声のうち利用者の所望の期間について混合比率と第1特性変数との時間変化を調整できるという利点がある。   In a preferred aspect of the present invention, the information management means calculates the second period from the numerical value corresponding to the first indication point on the first axis for the period from the first time point to the second time point on the time axis of the synthesis target speech. Control showing the time change of the mixing ratio to the numerical value corresponding to the indicated point and the time change of the first characteristic variable from the numerical value corresponding to the first indicated point to the numerical value corresponding to the second indicated point on the second axis. Generate information. In the above aspect, the mixing ratio and the temporal change of the first characteristic variable can be adjusted for a specific period from the first time point to the second time point in the synthesis target speech. Further, according to the configuration in which the instruction accepting unit accepts the instructions at the first time point and the second time point from the user, the time change between the mixing ratio and the first characteristic variable is adjusted for the user's desired period of the synthesis target voice. There is an advantage that you can.

本発明の好適な態様において、表示制御手段は、調整領域内の各地点が相異なる表示態様に設定された調整画像と、時間軸上の第1時点から第2時点にかけて調整領域内の第1指示点での表示態様から第2指示点での表示態様に変化する遷移画像を含む変数画像とを表示装置に表示させる。以上の構成によれば、第1時点から第2時点にかけて調整領域内の第1指示点での表示態様から第2指示点での表示態様に変化する遷移画像が表示装置に表示されるから、第1時点から第2時点にわたる混合比率および第1特性変数の時間変化を利用者が視覚的および直観的に把握できるという利点がある。また、合成対象音声の音響特性に関する第2特性変数の時間変化を遷移画像の形状で表現する変数画像を表示制御手段が表示装置に表示させる構成によれば、第2特性変数の時間変化を遷移画像とは別個に表示する構成と比較して表示内容を簡素化することが可能である。   In a preferred aspect of the present invention, the display control means includes an adjustment image in which each point in the adjustment area is set to a different display aspect, and the first in the adjustment area from the first time point to the second time point on the time axis. A variable image including a transition image that changes from a display mode at the indicated point to a display mode at the second indicated point is displayed on the display device. According to the above configuration, since the transition image that changes from the display mode at the first indication point in the adjustment region to the display mode at the second indication point from the first time point to the second time point is displayed on the display device, There is an advantage that the user can visually and intuitively grasp the mixing ratio and the temporal change of the first characteristic variable from the first time point to the second time point. In addition, according to the configuration in which the display control unit displays on the display device the variable image representing the time change of the second characteristic variable related to the acoustic characteristic of the synthesis target speech in the shape of the transition image, the time change of the second characteristic variable is changed. The display content can be simplified as compared with a configuration in which the image is displayed separately from the image.

本発明の好適な態様において、表示制御手段は、調整領域内の各地点が相異なる表示態様に設定された調整画像と、合成対象音声の各音符を表象する音符図像を、時間軸と音高軸とが設定された楽譜領域に配置した楽譜画像とを表示装置に表示させ、各音符図像における時間軸上の各地点の表示態様を、調整領域における第1指示点から第2指示点までの経路のうち当該地点に対応した地点での表示態様に設定する。以上の態様では、各音符を表象する音符図像が、混合比率および第1特性変数の時間変化の表示にも流用されるから、混合比率および第1特性変数の時間変化と各音符との関係を利用者が容易に把握できるという利点がある。なお、以上の態様の具体例は例えば第3実施形態として後述される。   In a preferred aspect of the present invention, the display control means includes an adjustment image in which each point in the adjustment area is set to a different display aspect, and a musical note iconic image representing each note of the synthesis target voice, a time axis and a pitch. The score image arranged in the score area in which the axis is set is displayed on the display device, and the display mode of each point on the time axis in each note image is changed from the first designated point to the second designated point in the adjustment area. The display mode at the point corresponding to the point in the route is set. In the above aspect, the musical note image representing each note is also used for displaying the mixing ratio and the time variation of the first characteristic variable. Therefore, the relationship between the time variation of the mixing ratio and the first characteristic variable and each note is expressed as follows. There is an advantage that the user can easily grasp. In addition, the specific example of the above aspect is later mentioned as 3rd Embodiment, for example.

本発明の好適な態様において、表示制御手段は、調整領域内の各地点が相異なる表示態様に設定された調整画像と、合成対象音声の各音符を表象する音符図像と各音符図像に対応する補助図像とを、時間軸と音高軸とが設定された楽譜領域に配置した楽譜画像とを表示装置に表示させ、各補助図像における時間軸上の各地点の表示態様を、調整領域における第1指示点から第2指示点までの経路のうち当該地点に対応した地点での表示態様に設定する。以上の態様では、各音符図像に対応する補助図像が混合比率および第1特性変数の時間変化の表示に利用されるから、混合比率および第1特性変数の時間変化と各音符との関係を利用者が容易に把握できるという利点がある。なお、以上の態様の具体例は例えば第4実施形態として後述される。   In a preferred aspect of the present invention, the display control means corresponds to an adjustment image in which each point in the adjustment region is set to a different display form, a note graphic image representing each note of the synthesis target voice, and each musical note graphic image. A score image arranged in a score area in which a time axis and a pitch axis are set is displayed on the display device, and the display mode of each point on the time axis in each auxiliary image is displayed in the adjustment area. It sets to the display mode in the point corresponding to the said point among the paths from the 1st indication point to the 2nd indication point. In the above aspect, since the auxiliary image corresponding to each note image is used to display the mixing ratio and the time change of the first characteristic variable, the relationship between the time change of the mixing ratio and the first characteristic variable and each note is used. There is an advantage that the person can easily grasp. In addition, the specific example of the above aspect is later mentioned as 4th Embodiment, for example.

本発明の第2態様に係る音声合成管理装置は、合成対象音声の合成に利用されるN種類(Nは3以上の自然数)の音声の各々に対応する基準点が設定された調整領域を含む調整画像を表示装置に表示させる表示制御手段と、調整領域内の第1指示点および第2指示点の指示を利用者から受付ける指示受付手段と、合成対象音声の合成時におけるN種類の音声の混合比率について、調整領域内で第1指示点に対応する数値から第2指示点に対応する数値への時間変化を示す制御情報を生成する情報管理手段とを具備する。以上の構成では、合成対象音声の合成に利用されるN種類(Nは3以上の自然数)の音声の各々に対応する基準点が設定された調整領域内に利用者から第1指示点および第2指示点が指示され、N種類の音声の混合比率について、調整領域内で第1指示点に対応する数値から第2指示点に対応する数値への時間変化を示す制御情報が生成される。したがって、利用者は、各音声の相互的な関係を調整領域で視覚的に確認しながら混合比率の時間変化を指示することが可能である。すなわち、N種類の音声の混合比率を個別的に指示する必要がある構成と比較して、利用者の作業負担を軽減できるという利点がある。   The speech synthesis management device according to the second aspect of the present invention includes an adjustment region in which a reference point corresponding to each of N types (N is a natural number of 3 or more) of speech used for synthesis of speech to be synthesized is set. Display control means for displaying the adjustment image on the display device, instruction receiving means for receiving instructions of the first and second instruction points in the adjustment area from the user, and N kinds of sounds at the time of synthesizing the synthesis target sound An information management means for generating control information indicating a time change from a numerical value corresponding to the first indicating point to a numerical value corresponding to the second indicating point in the adjustment region with respect to the mixing ratio. With the above configuration, the first indication point and the first indication from the user within the adjustment area in which the reference points corresponding to each of N types (N is a natural number of 3 or more) of speech used for synthesis of the synthesis target speech are set. Two indication points are instructed, and control information indicating a time change from a numerical value corresponding to the first indication point to a numerical value corresponding to the second indication point in the adjustment region is generated for the mixing ratio of N types of sounds. Accordingly, the user can instruct a change in the mixing ratio over time while visually confirming the mutual relationship between the sounds in the adjustment area. That is, there is an advantage that the user's work load can be reduced as compared with the configuration in which the mixing ratio of N types of voices needs to be individually indicated.

以上の各態様に係る音声合成管理装置は、制御情報の生成等に専用されるDSP(Digital Signal Processor)等のハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、例えば、本発明のプログラムは、通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、本発明は、以上に説明した各態様に係る音声合成管理装置の動作方法(音声合成管理方法)としても特定される。   The speech synthesis management device according to each aspect described above is realized by hardware (electronic circuit) such as DSP (Digital Signal Processor) dedicated to generation of control information, etc., and general purpose such as CPU (Central Processing Unit) This is also realized by cooperation between the arithmetic processing unit and the program. The program of the present invention can be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. For example, the program of the present invention can be provided in the form of distribution via a communication network and installed in a computer. The present invention is also specified as an operation method (speech synthesis management method) of the speech synthesis management device according to each aspect described above.

本発明の第1実施形態に係る音声合成装置のブロック図である。1 is a block diagram of a speech synthesizer according to a first embodiment of the present invention. 混合処理の説明図である。It is explanatory drawing of a mixing process. 合成情報の模式図である。It is a schematic diagram of synthetic information. 音声合成処理のフローチャートである。It is a flowchart of a speech synthesis process. 編集画像の模式図である。It is a schematic diagram of an edit image. 音声合成装置の動作のフローチャートである。It is a flowchart of operation | movement of a speech synthesizer. 編集処理のフローチャートである。It is a flowchart of an edit process. 編集画像の模式図である。It is a schematic diagram of an edit image. 調整領域と各指示点との関係を示す模式図である。It is a schematic diagram which shows the relationship between an adjustment area | region and each indication point. 調整領域と各指示点との関係を示す模式図である。It is a schematic diagram which shows the relationship between an adjustment area | region and each indication point. 編集画像の模式図である。It is a schematic diagram of an edit image. 第2実施形態における編集画像の模式図である。It is a schematic diagram of the edited image in 2nd Embodiment. 第3実施形態における編集画像の模式図である。It is a schematic diagram of the edited image in 3rd Embodiment. 第4実施形態における編集画像の模式図である。It is a schematic diagram of the edited image in 4th Embodiment. 第5実施形態における混合処理の説明図である。It is explanatory drawing of the mixing process in 5th Embodiment. 第5実施形態における編集画像の模式図である。It is a schematic diagram of the edited image in 5th Embodiment. 第5実施形態における混合比率の説明図である。It is explanatory drawing of the mixing ratio in 5th Embodiment. 第6実施形態における調整画像の模式図である。It is a schematic diagram of the adjustment image in 6th Embodiment. 各指示点間の経路の変形例の模式図である。It is a schematic diagram of the modification of the path | route between each indication point. 各指示点間の経路の変形例の模式図である。It is a schematic diagram of the modification of the path | route between each indication point. 調整領域の変形例の模式図である。It is a schematic diagram of the modification of an adjustment area | region. 第5実施形態の変形例における調整領域の模式図である。It is a schematic diagram of the adjustment area | region in the modification of 5th Embodiment. 第5実施形態の変形例における調整領域の模式図である。It is a schematic diagram of the adjustment area | region in the modification of 5th Embodiment.

<第1実施形態>
図1は、本発明の第1実施形態に係る音声合成装置100のブロック図である。音声合成装置100は、複数の音声素片を連結する素片接続型の音声合成処理で任意の音声の音声信号Sを生成する。具体的には、第1実施形態の音声合成装置100は、任意の楽曲(以下「合成楽曲」という)の歌唱音声の音声信号Sを生成する信号処理装置であり、演算処理装置10と記憶装置12と表示装置14と入力装置16と放音装置18とを具備するコンピュータシステム(例えば携帯電話機やパーソナルコンピュータ等の情報処理装置)で実現される。
<First Embodiment>
FIG. 1 is a block diagram of a speech synthesizer 100 according to the first embodiment of the present invention. The speech synthesizer 100 generates a speech signal S of an arbitrary speech by a unit connection type speech synthesis process that connects a plurality of speech units. Specifically, the speech synthesizer 100 of the first embodiment is a signal processing device that generates a speech signal S of a singing voice of an arbitrary music (hereinafter referred to as “synthetic music”), and includes an arithmetic processing device 10 and a storage device. 12, a display device 14, an input device 16, and a sound emitting device 18 (for example, an information processing device such as a mobile phone or a personal computer).

表示装置14(例えば液晶表示パネル)は、演算処理装置10から指示された画像を表示する。入力装置16は、音声合成装置100に対する各種の指示のために利用者が操作する操作機器(例えばマウス等のポインティングデバイスやキーボード)であり、例えば利用者が操作する複数の操作子を含んで構成される。なお、表示装置14と一体に構成されたタッチパネルを入力装置16として採用することも可能である。放音装置18(例えばスピーカやヘッドホン)は、音声信号Sに応じた音響を再生する。音声信号Sをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略されている。   The display device 14 (for example, a liquid crystal display panel) displays an image instructed from the arithmetic processing device 10. The input device 16 is an operation device (for example, a pointing device such as a mouse or a keyboard) operated by the user for various instructions to the speech synthesizer 100, and includes a plurality of operators operated by the user, for example. Is done. Note that a touch panel configured integrally with the display device 14 may be employed as the input device 16. The sound emitting device 18 (for example, a speaker or headphones) reproduces sound according to the audio signal S. Illustration of a D / A converter for converting the audio signal S from digital to analog is omitted for convenience.

記憶装置12は、演算処理装置10が実行するプログラムや演算処理装置10が使用する各種のデータを記憶する。半導体記録媒体や磁気記録媒体等の公知の記録媒体または複数種の記録媒体の組合せが記憶装置12として任意に採用される。第1実施形態の記憶装置12は、音声ライブラリL(LA,LB)と合成情報Qとを記憶する。   The storage device 12 stores a program executed by the arithmetic processing device 10 and various data used by the arithmetic processing device 10. A known recording medium such as a semiconductor recording medium or a magnetic recording medium or a combination of a plurality of types of recording media is arbitrarily employed as the storage device 12. The storage device 12 of the first embodiment stores an audio library L (LA, LB) and synthesis information Q.

音声ライブラリLは、特定の発声者の音声から事前に採取された複数の音声素片P(PA,PB)の集合である。各音声素片Pは、言語的な意味の区別の最小単位である音素(例えば母音や子音)、または、複数の音素を連結した音素連鎖(例えばダイフォンやトライフォン)である。各音声素片Pは、時間領域での音声波形のサンプル系列や、音声波形のフレーム毎に算定された周波数領域のスペクトルの時系列として表現される。   The speech library L is a set of a plurality of speech segments P (PA, PB) collected in advance from the speech of a specific speaker. Each speech element P is a phoneme (for example, a vowel or a consonant) that is a minimum unit of linguistic meaning distinction, or a phoneme chain (for example, a diphone or a triphone) that connects a plurality of phonemes. Each speech segment P is expressed as a sample sequence of a speech waveform in the time domain or a time sequence of a spectrum in the frequency domain calculated for each frame of the speech waveform.

図1に例示される通り、第1実施形態の記憶装置12は、複数の音声ライブラリL(LA,LB)を記憶する。音声ライブラリLAは、第1音声から抽出された複数の音声素片PAの集合であり、音声ライブラリLBは、第2音声から抽出された複数の音声素片PBの集合である。第1音声と第2音声とは声質(声色)が相違する。具体的には、第1音声(各音声素片PA)と第2音声(各音声素片PB)とは、相異なる発声者が発声した音声、または、ひとりの発声者が声質を相違させて発声した音声である。   As illustrated in FIG. 1, the storage device 12 of the first embodiment stores a plurality of audio libraries L (LA, LB). The speech library LA is a set of a plurality of speech segments PA extracted from the first speech, and the speech library LB is a set of a plurality of speech segments PB extracted from the second speech. The first voice and the second voice have different voice qualities (voice colors). Specifically, the first voice (each voice segment PA) and the second voice (each voice segment PB) are voices uttered by different speakers, or one voicer has a different voice quality. It is the voice that was uttered.

第1実施形態では、図2に例示される通り、合成対象となる音声(以下「合成対象音声」という)の発音内容に対応する音声素片P(PA,PB)が音声ライブラリLAおよび音声ライブラリLBの双方から順次に選択され、音声ライブラリLAから選択された音声素片PAと音声ライブラリLBから選択された音声素片PBとを混合比率Rで混合すること(以下「混合処理」という)で音声素片PSが生成される。混合処理(モーフィング)は、例えば以下の数式(a)で表現される通り、音声素片PAの声質に関する変数pAと音声素片PBの声質に関する変数pBとを混合比率Rに応じて加重加算することで、音声素片PSの声質に関する変数pSを算定する処理である。声質に関する変数としては、音声スペクトルの包絡線を規定する特徴量が例示され得る。
pS=(1−R)・pA+R・pB ……(a)
In the first embodiment, as illustrated in FIG. 2, the speech segment P (PA, PB) corresponding to the pronunciation content of the speech to be synthesized (hereinafter referred to as “synthesized speech”) is represented by the speech library LA and the speech library. A speech unit PA selected from both of the LBs and sequentially selected from the speech library LA and a speech unit PB selected from the speech library LB are mixed at a mixing ratio R (hereinafter referred to as “mixing process”). A speech segment PS is generated. In the mixing process (morphing), for example, the variable pA related to the voice quality of the speech unit PA and the variable pB related to the voice quality of the speech unit PB are weighted and added according to the mixing ratio R as expressed by the following formula (a). This is a process for calculating the variable pS relating to the voice quality of the speech element PS. The variable relating to the voice quality can be exemplified by a feature amount that defines the envelope of the voice spectrum.
pS = (1-R) · pA + R · pB (a)

混合比率Rは、音声ライブラリLA内の音声素片PAと音声ライブラリLB内の音声素片PBとの混合処理における各音声素片Pの優勢度(混合後の音声素片PSに反映される度合)に相当する。具体的には、混合比率Rが最小値(例えば0)である場合には、混合後の音声素片PSは音声素片PAに一致し、混合比率Rが大きいほど音声素片PSに対する音声素片PAの影響が減少し、混合比率Rが最大値(例えば1)である場合には、混合後の音声素片PSは音声素片PBに一致する。以上の説明から理解される通り、音声素片PSの声質は、混合比率Rに応じて音声素片PAと音声素片PBとの中間的な声質に設定され得る。混合処理で順次に生成される音声素片PSを時間軸上で相互に連結することで音声信号Sが生成される。なお、音声素片PAと音声素片PBとの混合処理には、数式(a)以外にも公知の技術が任意に採用され得る。   The mixing ratio R is the degree of dominance of each speech unit P in the mixing process of the speech unit PA in the speech library LA and the speech unit PB in the speech library LB (the degree reflected in the speech unit PS after mixing). ). Specifically, when the mixing ratio R is a minimum value (for example, 0), the mixed speech unit PS matches the speech unit PA, and the larger the mixing ratio R, the speech unit for the speech unit PS. When the influence of the segment PA is reduced and the mixing ratio R is the maximum value (for example, 1), the speech unit PS after mixing coincides with the speech unit PB. As understood from the above description, the voice quality of the speech segment PS can be set to an intermediate voice quality between the speech segment PA and the speech segment PB according to the mixing ratio R. A speech signal S is generated by interconnecting speech segments PS sequentially generated by the mixing process on the time axis. In addition to the mathematical expression (a), a known technique can be arbitrarily adopted for the mixing process of the speech element PA and the speech element PB.

図1の合成情報Qは、合成対象音声を指定する。図3に例示される通り、第1実施形態の合成情報Qは、楽曲情報QMと制御情報QCとを含んで構成される。楽曲情報QMは、合成楽曲の内容を指定する時系列データであり、合成楽曲を構成する音符毎に音高q1と発音期間q2と音声符号q3とを指定する。音高q1は、例えばMIDI(Musical Instrument Digital Interface)規格に準拠したノートナンバーである。発音期間q2は、例えば発音の開始時刻と継続長(または発音の終了時刻)とで規定される音符の継続長である。音声符号q3は、合成対象音声の発音内容(すなわち合成楽曲の歌詞)を指定する。例えば合成楽曲の歌詞を構成する文字(書記素)や各文字に対応する音素の音素記号が音声符号q3として指定される。   The synthesis information Q in FIG. 1 specifies a synthesis target voice. As illustrated in FIG. 3, the synthesis information Q of the first embodiment includes music information QM and control information QC. The music information QM is time-series data that specifies the content of the composite music, and specifies the pitch q1, the pronunciation period q2, and the voice code q3 for each note constituting the composite music. The pitch q1 is a note number based on, for example, the MIDI (Musical Instrument Digital Interface) standard. The pronunciation period q2 is a note duration defined by, for example, the start time and duration (or end time) of pronunciation. The voice code q3 designates the pronunciation content of the synthesis target voice (that is, the lyrics of the synthesized music). For example, a character (grapheme) constituting the lyrics of the synthesized music and a phoneme symbol of the phoneme corresponding to each character are designated as the speech code q3.

図3の制御情報QCは、音声合成処理に適用される変数の時間変化を指定する。第1実施形態の制御情報QCは、音声素片PAおよび音声素片PBの混合比率Rの時間変化と第1特性変数の時間変化とを指定する。第1特性変数は、合成対象音声の音響特性に関する変数(特徴量)である。第1実施形態では音量Vを第1特性変数として例示する。第1実施形態の制御情報QCは、合成対象音声(合成楽曲)のうち特定の期間(以下「制御期間」という)内の混合比率Rおよび音量Vの時間変化を指定する。   The control information QC in FIG. 3 specifies a time change of a variable applied to the speech synthesis process. The control information QC of the first embodiment designates the time change of the mixing ratio R of the speech unit PA and the speech unit PB and the time change of the first characteristic variable. The first characteristic variable is a variable (feature amount) related to the acoustic characteristic of the synthesis target speech. In the first embodiment, the volume V is exemplified as the first characteristic variable. The control information QC of the first embodiment designates the temporal change of the mixing ratio R and volume V within a specific period (hereinafter referred to as “control period”) of the synthesis target sound (synthesized music).

図1の演算処理装置10(CPU)は、記憶装置12に記憶されたプログラムを実行することで、合成情報Qの編集や音声信号Sの生成のための複数の機能(指示受付部22,表示制御部24,情報管理部26,音声合成部28)を実現する。なお、演算処理装置10の各機能を複数の装置に分散した構成や、専用の電子回路(例えばDSP)が演算処理装置10の一部の機能を実現する構成も採用され得る。   The arithmetic processing unit 10 (CPU) in FIG. 1 executes a program stored in the storage unit 12 to thereby execute a plurality of functions (instruction receiving unit 22, display) for editing the synthesis information Q and generating the audio signal S. The control unit 24, the information management unit 26, and the speech synthesis unit 28) are realized. A configuration in which each function of the arithmetic processing device 10 is distributed to a plurality of devices, or a configuration in which a dedicated electronic circuit (for example, DSP) realizes a part of the functions of the arithmetic processing device 10 may be employed.

音声合成部28は、記憶装置12に記憶された音声ライブラリLと合成情報Qとを利用した音声合成処理で音声信号Sを生成する。図4は、音声合成処理のフローチャートである。音声合成処理を開始すると、音声合成部28は、合成情報Qの楽曲情報QMが音符毎に指定する音声符号q3に応じた音声素片P(PA,PB)を音声ライブラリLAおよび音声ライブラリLBの双方から順次に選択する(SA1)。   The voice synthesizer 28 generates a voice signal S by voice synthesis processing using the voice library L and the synthesis information Q stored in the storage device 12. FIG. 4 is a flowchart of the speech synthesis process. When the voice synthesizing process is started, the voice synthesizing unit 28 selects the voice element P (PA, PB) corresponding to the voice code q3 designated by the music information QM of the synthesis information Q for each note in the voice library LA and the voice library LB. Selections are made sequentially from both sides (SA1).

音声合成部28は、音声ライブラリLAから選択した音声素片PAと音声ライブラリLBから選択した音声素片PBとについて、合成情報Qの制御情報QCが現時点について指定する混合比率Rを適用した混合処理を実行することで音声素片PSを生成する(SA2)。また、音声合成部28は、混合後の音声素片PSの音量を、制御情報QCが現時点について指定する音量Vに調整する(SA3)。そして、音声合成部28は、混合処理(SA2)および音量調整(SA3)で順次に生成される各音声素片PSを、合成情報Qの楽曲情報QMが指定する音高q1および発音期間q2に調整し(SA4)、調整後の各音声素片PSを相互に連結することで音声信号Sを生成する(SA5)。   The voice synthesizing unit 28 applies a mixing ratio R specified by the control information QC of the synthesis information Q for the current time for the voice element PA selected from the voice library LA and the voice element PB selected from the voice library LB. To generate a speech segment PS (SA2). Further, the speech synthesizer 28 adjusts the volume of the speech unit PS after mixing to the volume V specified by the control information QC for the current time (SA3). Then, the speech synthesizer 28 sets each speech segment PS sequentially generated by the mixing process (SA2) and the volume adjustment (SA3) to the pitch q1 and the pronunciation period q2 specified by the music information QM of the synthesis information Q. After adjusting (SA4), the adjusted speech elements PS are connected to each other to generate the audio signal S (SA5).

図1の表示制御部24は、各種の画像を表示装置14に表示させる。第1実施形態の表示制御部24は、合成情報Qが指定する合成楽曲の内容を利用者が確認および編集するための図5の編集画像30を表示装置14に表示させる。図5に例示される通り、編集画像30は、楽譜画像40と変数画像50とを包含する。   The display control unit 24 in FIG. 1 displays various images on the display device 14. The display control unit 24 of the first embodiment causes the display device 14 to display the edited image 30 of FIG. 5 for the user to confirm and edit the contents of the synthesized music specified by the synthesis information Q. As illustrated in FIG. 5, the edited image 30 includes a score image 40 and a variable image 50.

楽譜画像40は、相互に交差する時間軸(横軸)および音高軸(縦軸)が設定されたピアノロール型の座標平面(以下「楽譜領域」という)42を含んで構成され、合成情報Qの楽曲情報QMが指定する合成楽曲の内容を表現する。具体的には、表示制御部24は、合成楽曲の各音符を表象する音符図像44を楽譜領域42に配置する。音高軸の方向における音符図像44の位置は、楽曲情報QMが指定する音高q1に応じて設定され、時間軸の方向における音符図像44の位置および表示長は、楽曲情報QMが指定する発音期間q2に応じて設定される。また、各音符図像44には、楽曲情報QMが指定する音声符号q3が付加される。図5では、音声符号q3が指定する文字(合成楽曲の歌詞)と音素記号とを音符図像44の内側に配置した場合が例示されている。   The score image 40 includes a piano roll type coordinate plane (hereinafter referred to as a “score region”) 42 on which a time axis (horizontal axis) and a pitch axis (vertical axis) intersect with each other, and is composed information. The contents of the synthesized music designated by the music information QM of Q are expressed. Specifically, the display control unit 24 arranges a note image 44 representing each note of the synthesized music in the score area 42. The position of the note image 44 in the direction of the pitch axis is set according to the pitch q1 specified by the music information QM, and the position and display length of the note image 44 in the direction of the time axis are pronounced specified by the music information QM. It is set according to the period q2. Further, each musical note image 44 is added with a voice code q3 designated by the music information QM. In FIG. 5, the case where the character (the lyrics of the synthesized music) and the phoneme symbol designated by the voice code q3 are arranged inside the musical note image 44 is illustrated.

変数画像50は、時間軸(横軸)が設定された領域(以下「変数領域」という)52を含んで構成され、混合処理(SA2)に適用される混合比率Rの時間変化と音量調整(SA3)に適用される音量Vの時間変化とを表現する。変数領域52の時間軸は楽譜領域42の時間軸と共通する。なお、変数画像50の具体的な内容については後述する。   The variable image 50 is configured to include an area (hereinafter referred to as “variable area”) 52 in which a time axis (horizontal axis) is set, and a change in volume of the mixing ratio R applied to the mixing process (SA2) and volume adjustment ( The time change of the volume V applied to SA3) is expressed. The time axis of the variable area 52 is the same as the time axis of the score area 42. The specific contents of the variable image 50 will be described later.

指示受付部22は、入力装置16に対する操作に応じた利用者からの指示を受付ける。例えば利用者は、編集画像30を確認しながら入力装置16を適宜に操作することで合成情報Qの編集を指示することが可能である。情報管理部26は、記憶装置12に記憶された合成情報Qを管理する。具体的には、情報管理部26は、指示受付部22が利用者から受付けた編集の指示に応じて合成情報Q(楽曲情報QM,制御情報QC)を更新する。   The instruction receiving unit 22 receives an instruction from a user according to an operation on the input device 16. For example, the user can instruct editing of the composite information Q by appropriately operating the input device 16 while confirming the edited image 30. The information management unit 26 manages the composite information Q stored in the storage device 12. Specifically, the information management unit 26 updates the composite information Q (music information QM, control information QC) according to the editing instruction received by the instruction receiving unit 22 from the user.

図6は、第1実施形態の音声合成装置100の概略的な動作のフローチャートである。入力装置16に対する利用者からの指示を契機として図6の処理が開始される。処理を開始すると、表示制御部24は、記憶装置12に記憶された合成情報Qに応じた図5の編集画像30を表示装置14に表示させる(SB1)。そして、指示受付部22は、合成情報Qの編集の指示を利用者から受付けたか否かを判定する(SB2)。   FIG. 6 is a flowchart of a schematic operation of the speech synthesizer 100 according to the first embodiment. The process of FIG. 6 is started in response to an instruction from the user to the input device 16. When the process is started, the display control unit 24 causes the display device 14 to display the edited image 30 of FIG. 5 corresponding to the composite information Q stored in the storage device 12 (SB1). Then, the instruction receiving unit 22 determines whether an instruction to edit the composite information Q is received from the user (SB2).

合成情報Qの編集の指示を指示受付部22が受付けた場合(SB2:YES)、表示制御部24による編集画像30の更新と情報管理部26による合成情報Qの更新とを含む編集処理が実行される(SB3)。例えば、音符の追加が利用者から指示された場合、表示制御部24は、楽譜領域42内で利用者から指示された位置に音符図像44を追加し、情報管理部26は、利用者から指示された音符の情報(q1〜q3)を合成情報Qの楽曲情報QMに追加する。既存の音符図像44の移動や時間軸上の伸縮が利用者から指示された場合、表示制御部24は、音符図像44の位置や表示長を利用者からの指示に応じて変更し、情報管理部26は、楽曲情報QMのうち編集対象の音符の音高q1や発音期間q2を利用者からの指示に応じて変更する。また、各音符の音声符号q3の変更が利用者から指示された場合、表示制御部24は、当該音符の音声符号q3の表示を利用者からの指示に応じて変更し、情報管理部26は、楽曲情報QMのうち当該音符の音声符号q3を利用者からの指示に応じて変更する。合成情報Qの編集が指示されていない場合(SB2:NO)、編集処理は実行されない。   When the instruction receiving unit 22 receives an instruction to edit the composite information Q (SB2: YES), an editing process including an update of the edited image 30 by the display control unit 24 and an update of the composite information Q by the information management unit 26 is executed. (SB3). For example, when the addition of a note is instructed by the user, the display control unit 24 adds the note image 44 to the position instructed by the user in the score area 42, and the information management unit 26 instructs from the user. The note information (q1 to q3) thus added is added to the music information QM of the composition information Q. When movement of the existing musical note image 44 or expansion / contraction on the time axis is instructed by the user, the display control unit 24 changes the position and display length of the musical note image 44 according to the instruction from the user, and manages information. The unit 26 changes the pitch q1 and the pronunciation period q2 of the note to be edited in the music information QM according to an instruction from the user. When the change of the voice code q3 of each note is instructed by the user, the display control unit 24 changes the display of the voice code q3 of the note according to the instruction from the user, and the information management unit 26 The voice code q3 of the note in the music information QM is changed in accordance with an instruction from the user. If editing of the composite information Q is not instructed (SB2: NO), the editing process is not executed.

以上の処理が完了すると、指示受付部22は、音声合成(音声信号Sの生成)の指示を利用者から受付けたか否かを判定する(SB4)。音声合成の指示を指示受付部22が受付けた場合(SB4:YES)、音声合成部28は、音声ライブラリL(LA,LB)と合成情報Qとを適用した図4の音声合成処理を実行することで音声信号Sを生成する(SB5)。他方、音声合成が指示されていない場合(SB4:NO)には音声合成処理は実行されない。また、指示受付部22は、処理終了の指示を利用者から受付けたか否かを判定する(SB6)。処理終了が指示されていない場合(SB6:NO)には、処理がステップSB1に遷移して以降の処理が反復され、処理終了が指示された場合(SB6:YES)には図6の処理が終了する。   When the above processing is completed, the instruction receiving unit 22 determines whether or not an instruction for voice synthesis (generation of the voice signal S) has been received from the user (SB4). When the instruction receiving unit 22 receives a voice synthesis instruction (SB4: YES), the voice synthesis unit 28 executes the voice synthesis process of FIG. 4 to which the voice library L (LA, LB) and the synthesis information Q are applied. Thus, the audio signal S is generated (SB5). On the other hand, when the voice synthesis is not instructed (SB4: NO), the voice synthesis process is not executed. In addition, the instruction receiving unit 22 determines whether or not an instruction to end the process has been received from the user (SB6). When the process end is not instructed (SB6: NO), the process transitions to step SB1, and the subsequent processes are repeated. When the process end is instructed (SB6: YES), the process of FIG. finish.

利用者は、入力装置16を適宜に操作することで、混合比率Rおよび音量Vの時間変化の編集を指示することが可能である。図7は、混合比率Rおよび音量Vの時間変化の編集の指示を指示受付部22が受付けた場合(SB2:YES)に演算処理装置10が実行する編集処理(SB3)のフローチャートである。   The user can instruct editing of the temporal change of the mixing ratio R and the volume V by appropriately operating the input device 16. FIG. 7 is a flowchart of the editing process (SB3) executed by the arithmetic processing unit 10 when the instruction receiving unit 22 receives an instruction to edit the mixing ratio R and volume V over time (SB2: YES).

混合比率Rおよび音量Vの編集が指示されると、表示制御部24は、図8に例示される通り、調整画像60を表示装置14に表示させる(SC1)。調整画像60は、合成対象音声(合成楽曲)の制御期間内における混合比率Rの時間変化と音量Vの時間変化とを利用者が編集するための画像である。   When editing of the mixing ratio R and volume V is instructed, the display control unit 24 displays the adjusted image 60 on the display device 14 as illustrated in FIG. 8 (SC1). The adjustment image 60 is an image for the user to edit the time change of the mixing ratio R and the time change of the volume V within the control period of the synthesis target sound (synthesized music).

調整画像60は、相互に交差する第1軸A1(横軸)と第2軸A2(縦軸)とが設定された調整領域62を包含する。第1軸A1は、音声素片PA(第1音声)と音声素片PB(第2音声)との混合比率Rの数値を示す座標軸であり、第2軸A2は、合成対象音声(混合後の音声素片PS)の音量Vの数値を示す座標軸である。第1軸A1の負側の端部(左端部)に表示された「声色A」は第1音声の声質を意味し、第1軸A1の正側の端部(右端部)に表示された「声色B」は第2音声の声質を意味する。   The adjustment image 60 includes an adjustment region 62 in which a first axis A1 (horizontal axis) and a second axis A2 (vertical axis) intersecting each other are set. The first axis A1 is a coordinate axis indicating the numerical value of the mixing ratio R between the speech unit PA (first speech) and the speech unit PB (second speech), and the second axis A2 is the synthesis target speech (after mixing). Is a coordinate axis indicating the numerical value of the volume V of the speech unit PS). “Voice color A” displayed at the negative end (left end) of the first axis A1 means the voice quality of the first voice, and is displayed at the positive end (right end) of the first axis A1. “Voice color B” means the voice quality of the second voice.

調整領域62内の各地点は位置に応じて相異なる表示態様(色相や彩度や明度等の視覚的に識別可能な画像の性状)で表示される。実際の調整領域62は多数の色彩を含むカラー画像であるが、特許図面でカラー画像を利用できないという事情から便宜的に、図8では、調整領域62内の色相を図面上の階調の濃淡(グレースケール)で代替的に表現し、調整領域62内の明度(階調)を図面上の網点の粗密で代替的に表現した。具体的には、青色から赤色にわたる色相の分布が低階調から高階調にわたる階調の分布で表現され、暗部から明部にわたる階調の分布が高密度(密)から低密度(疎)への網点の密度で表現される。すなわち、図8から理解される通り、第1実施形態の調整領域62は、第1軸A1の負側(左側)の端部から正側(右側)の端部にかけて赤色(階調:高)から青色(階調:低)に連続的に変化するとともに、第2軸A2の負側から正側にかけて低階調(網点:密)から高階調(網点:疎)に連続的に変化する画像である。   Each point in the adjustment area 62 is displayed in different display modes (characteristics of visually identifiable images such as hue, saturation, and brightness) depending on the position. Although the actual adjustment area 62 is a color image including a large number of colors, for convenience, the color image cannot be used in the patent drawing. In FIG. (Grayscale) is alternatively expressed, and the brightness (gradation) in the adjustment region 62 is alternatively expressed by the density of halftone dots on the drawing. Specifically, the distribution of hues from blue to red is expressed by the distribution of gradations from low to high gradations, and the distribution of gradations from dark to light is changed from high density (dense) to low density (sparse). It is expressed by the density of halftone dots. That is, as is understood from FIG. 8, the adjustment region 62 of the first embodiment is red (gradation: high) from the negative side (left side) end to the positive side (right side) end of the first axis A1. Changes continuously from blue to blue (gradation: low) and continuously from low gradation (halftone: dense) to high gradation (halftone: sparse) from the negative side to the positive side of the second axis A2. It is an image to be.

利用者は、図8の楽譜画像40を確認しながら入力装置16を適宜に操作することで、変数領域52の時間軸上に複数の時点T(T1,T2)を任意に指示することが可能である。指示受付部22は、時間軸上の複数の時点T(T1,T2)の指示を利用者から受付ける(SC2)。時点T1は、合成対象音声のうち混合比率Rと音量Vとが変化する制御期間の始点に相当し、時点T2は制御期間の終点に相当する。表示制御部24は、図8に例示される通り、指示受付部22が利用者から受付けた各時点Tを変数領域52内に表示する(SC3)。利用者は、楽譜画像40の複数の音符図像44の時系列を随時に確認しながら、合成楽曲のうち混合比率Rおよび音量Vを変化させるべき箇所が制御期間に包含されるように時点T1と時点T2とを指示する。また、利用者は、入力装置16に対する操作で各時点Tを時間軸の方向に移動させることも可能である。   The user can arbitrarily designate a plurality of time points T (T1, T2) on the time axis of the variable area 52 by appropriately operating the input device 16 while confirming the score image 40 of FIG. It is. The instruction receiving unit 22 receives instructions from a plurality of time points T (T1, T2) on the time axis from the user (SC2). The time point T1 corresponds to the start point of the control period in which the mixing ratio R and the volume V of the synthesis target sound change, and the time point T2 corresponds to the end point of the control period. As illustrated in FIG. 8, the display control unit 24 displays each time T received from the user by the instruction receiving unit 22 in the variable area 52 (SC3). While confirming the time series of the plurality of musical note images 44 of the musical score image 40 as needed, the user can select the time T1 and the time point T1 so that the portion where the mixing ratio R and volume V should be changed is included in the control period. The time T2 is indicated. The user can also move each time point T in the direction of the time axis by operating the input device 16.

利用者は、図8の調整画像60を確認しながら入力装置16を適宜に操作することで、変数領域52内の各時点Tに対応する複数の地点(以下「指示点」という)Xを調整領域62内に指示することが可能である。指示受付部22は、調整領域62内の複数の指示点X(X1,X2)の指示を利用者から順次に受付ける(SC4)。表示制御部24は、図8に例示される通り、指示受付部22が指示を受付けた各指示点Xと、相前後して指示された2個の指示点Xを連結する経路Cとを調整領域62内に表示する(SC5)。第1実施形態の経路Cは2個の指示点Xを連結する直線である。なお、経路Cの表示は省略され得る。   The user adjusts a plurality of points (hereinafter referred to as “instruction points”) X corresponding to the respective time points T in the variable area 52 by appropriately operating the input device 16 while confirming the adjustment image 60 of FIG. It is possible to indicate in the area 62. The instruction receiving unit 22 sequentially receives instructions from a plurality of instruction points X (X1, X2) in the adjustment area 62 from the user (SC4). As illustrated in FIG. 8, the display control unit 24 adjusts each indication point X for which the instruction receiving unit 22 has received an instruction and a path C that connects the two instruction points X that have been indicated before and after. It is displayed in the area 62 (SC5). The path C of the first embodiment is a straight line connecting the two designated points X. Note that the display of the route C may be omitted.

1個の指示点Xは、混合比率Rおよび音量Vの各数値に対応した座標点である。すなわち、指示点Xの第1軸A1上の位置が混合比率Rの数値に相当し、指示点Xの第2軸A2上の位置が音量Vの数値に相当する。指示点Xが第1軸A1の正側の端部(声色B)に近付くほど混合比率Rの数値は増加し、指示点Xが第2軸A2の正側の端部に近付くほど音量Vの数値は増加する。   One indication point X is a coordinate point corresponding to each value of the mixing ratio R and the volume V. That is, the position of the indication point X on the first axis A1 corresponds to the value of the mixing ratio R, and the position of the indication point X on the second axis A2 corresponds to the value of the volume V. The numerical value of the mixing ratio R increases as the indication point X approaches the positive end (voice tone B) of the first axis A1, and the volume V increases as the indication point X approaches the positive end of the second axis A2. The number increases.

図9は、複数の指示点X(X1,X2)が指定された調整領域62の模式図である。図9では、調整領域62内の表示態様の変化の図示を便宜的に省略した。利用者が指示した指示点X1は、時点T1(制御期間の始点)における混合比率Rおよび音量Vの数値に対応する。すなわち、図9に例示される通り、第1軸A1上で指示点X1に対応する数値r1は時点T1での混合比率Rの数値に相当し、第2軸A2上で指示点X1に対応する数値v1は時点T1での音量Vの数値に相当する。他方、指示点X2は、時点T2(制御期間の終点)における混合比率Rおよび音量Vの数値に対応する。すなわち、図9に例示される通り、第1軸A1上で指示点X2に対応する数値r2は時点T2での混合比率Rの数値に相当し、第2軸A2上で指示点X2に対応する数値v2は時点T2での音量Vの数値に相当する。以上の説明から理解される通り、指示点X1および指示点X2は、時点T1から時点T2にかけて数値r1から数値r2に連続的に遷移する混合比率Rの時間変化と、時点T1から時点T2にかけて数値v1から数値v2に連続的に遷移する音量Vの時間変化とを表現する。   FIG. 9 is a schematic diagram of the adjustment region 62 in which a plurality of designated points X (X1, X2) are designated. In FIG. 9, the change of the display mode in the adjustment area 62 is omitted for convenience. The designated point X1 designated by the user corresponds to the numerical values of the mixing ratio R and the volume V at the time T1 (starting point of the control period). That is, as illustrated in FIG. 9, the numerical value r1 corresponding to the designated point X1 on the first axis A1 corresponds to the numerical value of the mixing ratio R at the time point T1, and corresponds to the designated point X1 on the second axis A2. The numerical value v1 corresponds to the numerical value of the volume V at the time point T1. On the other hand, the designated point X2 corresponds to the numerical values of the mixing ratio R and the volume V at the time point T2 (end point of the control period). That is, as illustrated in FIG. 9, the numerical value r2 corresponding to the designated point X2 on the first axis A1 corresponds to the numerical value of the mixing ratio R at the time point T2, and corresponds to the designated point X2 on the second axis A2. The numerical value v2 corresponds to the numerical value of the volume V at the time point T2. As can be understood from the above description, the indication point X1 and the indication point X2 are numerical values from the time point T1 to the time point T2 and from the time point T1 to the time point T2 and from the time point T1 to the time point T2. It expresses the time change of the volume V that continuously transitions from v1 to the numerical value v2.

利用者は、入力装置16を適宜に操作することで、調整領域62内の任意の指示点X(以下「選択指示点X」という)を選択し、選択指示点Xに対応する音声の再生を指示することが可能である。選択指示点Xの選択を指示受付部22が受付けると、音声合成部28は、選択指示点Xに対応する混合比率Rと音量Vとを適用した音声合成処理で音声信号Sを生成する。具体的には、音声合成部28は、特定の発音内容(例えば合成情報Qで指定される音声符号q3とは無関係に事前に選定された文字)に対応する音声素片P(PA,PB)を音声ライブラリLAおよび音声ライブラリLBの双方から選択し(SA1)、選択指示点Xに対応する混合比率Rの数値を適用した混合処理(SA2)と、選択指示点Xに対応する音量Vの数値を適用した音量調整(SA3)とを実行することで、所定の音高および発音期間の音声信号Sを生成(SA4,SA5)して放音装置18から再生する。すなわち、利用者は、各指示点Xに対応する混合比率Rおよび音量Vを適用した合成音声を実際に聴取しながら、所望の合成音声が生成されるように調整領域62内の各指示点Xの位置を調整することが可能である。例えば、音声素片PAと音声素片PBとの収録時の音量差に起因した合成音声の音量感の変化(混合比率Rの時間変化に連動した変化)が抑制されるように、音量Vを混合比率Rに応じて調整することが可能である。   By appropriately operating the input device 16, the user selects an arbitrary designated point X (hereinafter referred to as “selected designated point X”) in the adjustment area 62, and reproduces the sound corresponding to the selected designated point X. It is possible to instruct. When the instruction receiving unit 22 receives the selection of the selection instruction point X, the voice synthesis unit 28 generates a voice signal S by voice synthesis processing using the mixing ratio R and the volume V corresponding to the selection instruction point X. Specifically, the speech synthesizer 28 is a speech segment P (PA, PB) corresponding to specific pronunciation content (for example, a character selected in advance regardless of the speech code q3 designated by the synthesis information Q). Is selected from both the audio library LA and the audio library LB (SA1), the mixing process (SA2) applying the numerical value of the mixing ratio R corresponding to the selection instruction point X, and the numerical value of the volume V corresponding to the selection instruction point X The sound signal S having a predetermined pitch and sound generation period is generated (SA4, SA5) and reproduced from the sound emitting device 18 by executing the volume adjustment (SA3) to which the above is applied. That is, the user can actually listen to the synthesized speech to which the mixing ratio R and volume V corresponding to each designated point X are applied, and generate each desired point X in the adjustment area 62 so that a desired synthesized speech is generated. Can be adjusted. For example, the volume V is set so that the change in the volume feeling of the synthesized speech due to the difference in volume during recording between the speech unit PA and the speech unit PB (change associated with the time change of the mixing ratio R) is suppressed. It is possible to adjust according to the mixing ratio R.

表示制御部24は、図8に例示される通り、調整領域62内に指示された各指示点Xに応じた遷移画像54を変数画像50の変数領域52に配置する(SC6)。遷移画像54は、時間軸に沿って延在する帯状の画像であり、時点T1から時点T2にわたる混合比率Rおよび音量Vの時間変化を表現する。第1実施形態の表示制御部24は、遷移画像54の時間軸上の各時点での表示態様が、変数領域52内の時間軸上の時点T1から時点T2にかけて、調整領域62内の指示点X1での表示態様から指示点X2での表示態様まで連続的に変化するように遷移画像54を生成する。すなわち、遷移画像54のうち時点T1での表示態様は、調整領域62内の指示点X1での表示態様に一致し、遷移画像54のうち時点T2での表示態様は、調整領域62内の指示点X2での表示態様に一致する。また、遷移画像54のうち時点T1と時点T2との間の任意の時点tでの表示態様は、調整領域62内の指示点X1から指示点X2までの経路C上で当該時点tに対応する地点での表示態様に一致する。したがって、利用者は、変数画像50を確認することで、時点T1から時点T2にわたる混合比率Rおよび音量Vの時間変化を視覚的に把握することが可能である。   As illustrated in FIG. 8, the display control unit 24 arranges the transition image 54 corresponding to each designated point X designated in the adjustment area 62 in the variable area 52 of the variable image 50 (SC6). The transition image 54 is a band-shaped image extending along the time axis, and expresses the temporal change in the mixing ratio R and volume V from the time point T1 to the time point T2. In the display control unit 24 of the first embodiment, the display mode at each time point on the time axis of the transition image 54 is the indication point in the adjustment area 62 from time T1 to time T2 on the time axis in the variable area 52. The transition image 54 is generated so as to continuously change from the display mode at X1 to the display mode at the designated point X2. That is, the display mode at the time point T1 in the transition image 54 matches the display mode at the point X1 in the adjustment area 62, and the display mode at the time point T2 in the transition image 54 is the indication in the adjustment area 62. This corresponds to the display mode at the point X2. Further, the display mode at an arbitrary time t between the time T1 and the time T2 in the transition image 54 corresponds to the time t on the path C from the designated point X1 to the designated point X2 in the adjustment region 62. It matches the display mode at the point. Therefore, the user can visually grasp the temporal change in the mixing ratio R and the volume V from the time point T1 to the time point T2 by checking the variable image 50.

情報管理部26は、調整画像60および変数画像50の内容が反映されるように合成情報Qの制御情報QCを更新する(SC7)。具体的には、混合比率Rおよび音量Vが、時間軸上の時点T1から時点T2にかけて、指示点X1に対応する数値から指示点X2に対応する数値まで経路Cに沿って遷移するように、制御情報QCが更新される。すなわち、情報管理部26は、時間軸上の時点T1から時点T2にかけて、第1軸A1上で指示点X1に対応する数値r1から指示点X2に対応する数値r2まで混合比率Rが連続的に遷移し、かつ、第2軸A2上で指示点X1に対応する数値v1から指示点X2に対応する数値v2まで音量Vが連続的に遷移するように、制御情報QCを更新する。   The information management unit 26 updates the control information QC of the composite information Q so that the contents of the adjustment image 60 and the variable image 50 are reflected (SC7). Specifically, the mixing ratio R and the volume V are changed along the path C from the time point T1 to the time point T2 on the time axis from the numerical value corresponding to the designated point X1 to the numerical value corresponding to the designated point X2. The control information QC is updated. That is, the information management unit 26 continuously increases the mixing ratio R from the time point T1 on the time axis to the time point T2 from the numerical value r1 corresponding to the designated point X1 to the numerical value r2 corresponding to the designated point X2 on the first axis A1. The control information QC is updated so that the volume V continuously changes on the second axis A2 from the numerical value v1 corresponding to the indication point X1 to the numerical value v2 corresponding to the indication point X2.

以上に説明した通り、第1実施形態では、音声素片PAおよび音声素片PBの混合比率Rを示す第1軸A1と、合成対象音声の音量Vを示す第2軸A2とが設定された調整領域62に、利用者からの指示に応じた各指示点X(X1,X2)が設定される。そして、第1軸A1上で指示点X1に対応する数値r1から指示点X2に対応する数値r2まで遷移する混合比率Rの時間変化と、第2軸A2上で指示点X1に対応する数値v1から指示点X2に対応する数値v2まで遷移する音量Vの時間変化とを指定する制御情報QCが生成される。以上の構成によれば、利用者は、混合比率Rと音量Vとの関係を確認しながら、混合比率Rの時間変化の指示に並行して音量Vの時間変化を指示する(両者の時間変化を一括的に指示する)ことが可能である。したがって、音声合成処理に適用される変数(混合比率Rおよび音量V)を指示する利用者の作業負担を軽減できるという利点がある。   As described above, in the first embodiment, the first axis A1 indicating the mixing ratio R of the speech unit PA and the speech unit PB and the second axis A2 indicating the volume V of the synthesis target speech are set. Each indication point X (X1, X2) according to an instruction from the user is set in the adjustment area 62. Then, the change over time of the mixture ratio R that transitions from the numerical value r1 corresponding to the designated point X1 on the first axis A1 to the numerical value r2 corresponding to the designated point X2, and the numerical value v1 corresponding to the designated point X1 on the second axis A2. Control information QC for designating the time change of the volume V that transitions from 1 to the numerical value v2 corresponding to the designated point X2. According to the above configuration, the user instructs the time change of the volume V in parallel with the time change instruction of the mixing ratio R while confirming the relationship between the mixing ratio R and the volume V (the time change of both). Can be instructed collectively). Therefore, there is an advantage that it is possible to reduce the work burden on the user who designates variables (mixing ratio R and volume V) applied to the speech synthesis process.

また、第1実施形態では、時間軸上の時点T1から時点T2にかけて混合比率Rおよび音量Vが指示点X1での数値から指示点X2での数値まで遷移するように制御情報QCが生成されるから、合成対象音声(合成楽曲)の特定の期間について限定的に混合比率Rおよび音量Vの時間変化を利用者が指示することが可能である。また、制御期間を画定する時点T1および時点T2は利用者からの指示に応じて可変に設定されるから、合成対象音声のうち利用者の所望の期間について混合比率Rおよび音量Vの時間変化を指示できるという利点もある。   In the first embodiment, the control information QC is generated so that the mixing ratio R and volume V transition from the numerical value at the designated point X1 to the numerical value at the designated point X2 from time T1 to time T2 on the time axis. Therefore, the user can instruct the change in the mixing ratio R and volume V over time for a specific period of the synthesis target voice (synthesized music). In addition, since the time point T1 and the time point T2 that define the control period are variably set in accordance with an instruction from the user, the time ratios of the mixing ratio R and the volume V are changed for the user's desired period of the synthesis target voice. There is also an advantage that it can be directed.

例えば、声色Bの第2音声(音声素片PB)の音量が声色Aの第1音声(音声素片PA)と比較して大きいと仮定し、合成対象音声を第2音声(声色B)から第1音声(声色A)に経時的に変化させる場合を想定する。図10の例示のように第1軸A1の正側(声色B側)に位置する指示点X1と負側(声色A側)に位置する指示点X2とで第2軸A2上の位置が相等しい場合、時点T1から時点T2にかけて音量Vの数値は略一定に維持される。したがって、合成音声の声質が第2音声の声色Bから第1音声の声色Aに遷移する制御期間において、合成音声の音量は、収録時における各音声素片Pの音量差に起因して、制御期間内で経時的に減少する。他方、図9の例示のように第2軸A2上で指示点X2が指示点X1の正側に位置する場合、時点T1から時点T2にかけて音量Vの数値は経時的に増加する。したがって、合成音声の声質が第2音声の声色Bから第1音声の声色Aに遷移する制御期間において、合成音量の音量は制御期間内で略一定に維持される。すなわち、収録時における各音声素片Pの音量差が低減される。   For example, it is assumed that the volume of the second voice of voice color B (speech segment PB) is higher than that of the first voice of voice color A (speech segment PA), and the synthesis target voice is determined from the second voice (speech color B). Assume that the first sound (voice color A) is changed over time. As illustrated in FIG. 10, the position on the second axis A2 is the same between the pointing point X1 located on the positive side (voice tone B side) of the first axis A1 and the pointing point X2 located on the negative side (voice tone A side). If equal, the numerical value of the volume V is maintained substantially constant from time T1 to time T2. Therefore, in the control period in which the voice quality of the synthesized voice changes from the voice color B of the second voice to the voice color A of the first voice, the volume of the synthesized voice is controlled due to the volume difference of each voice segment P at the time of recording. Decreases over time within the period. On the other hand, when the indication point X2 is located on the positive side of the indication point X1 on the second axis A2 as illustrated in FIG. 9, the value of the volume V increases with time from the time point T1 to the time point T2. Therefore, in the control period in which the voice quality of the synthesized voice changes from the voice color B of the second voice to the voice color A of the first voice, the volume of the synthesized voice is maintained substantially constant within the control period. That is, the volume difference of each speech unit P during recording is reduced.

第1実施形態では、調整領域62内の各地点が相異なる表示態様に設定され、時間軸上の時点T1から時点T2にかけて、調整領域62内の指示点X1での表示態様から指示点X2での表示態様に変化する遷移画像54が表示装置14に表示される。したがって、時点T1から時点T2にわたる混合比率Rおよび音量Vの時間変化を利用者が視覚的および直観的に把握できるという利点もある。   In the first embodiment, each point in the adjustment region 62 is set to a different display mode, and from the time point T1 to the time point T2 on the time axis, the display mode at the point X1 in the adjustment region 62 changes from the point of display to the point X2. A transition image 54 that changes to the display mode is displayed on the display device 14. Therefore, there is also an advantage that the user can visually and intuitively grasp the temporal change of the mixing ratio R and the volume V from the time point T1 to the time point T2.

なお、以上の例示では、調整領域62内の2個の指示点X(X1,X2)と変数領域52内の2個の時点T(T1,T2)とを例示したが、図11に例示される通り、変数領域52内の3個以上の時点T(T1,T2,T3)と調整領域62内の3個以上の指示点X(X1,X2,X3)とを設定することも可能である。表示制御部24が変数領域52に配置する遷移画像54の表示態様は、時間軸上の時点T1から時点T2にかけて調整領域62内の指示点X1での表示態様から指示点X2での表示態様まで連続的に変化し、かつ、時間軸上の時点T2から時点T3にかけて調整領域62内の指示点X2での表示態様から指示点X3での表示態様まで連続的に変化する。また、情報管理部26は、混合比率Rおよび音量Vが、時点T1から時点T2にかけて指示点X1での数値から指示点X2での数値まで経路C12に沿って遷移するとともに、時点T2から時点T3にかけて指示点X2での数値から指示点X3での数値まで経路C23に沿って遷移するように、制御情報QCを更新する。   In the above example, the two designated points X (X1, X2) in the adjustment area 62 and the two time points T (T1, T2) in the variable area 52 are exemplified, but are illustrated in FIG. As described above, it is also possible to set three or more time points T (T1, T2, T3) in the variable area 52 and three or more indication points X (X1, X2, X3) in the adjustment area 62. . The display mode of the transition image 54 arranged in the variable area 52 by the display control unit 24 is from the display mode at the designated point X1 in the adjustment area 62 to the display mode at the designated point X2 from time T1 to time T2 on the time axis. It changes continuously and from the time point T2 to the time point T3 on the time axis, it continuously changes from the display mode at the indicated point X2 in the adjustment area 62 to the display mode at the indicated point X3. In addition, the information management unit 26 changes the mixing ratio R and volume V from the time point T1 to the time point T2 along the path C12 from the numerical value at the designated point X1 to the numerical value at the designated point X2, and from the time point T2 to the time point T3. The control information QC is updated so that a transition is made along the path C23 from the value at the designated point X2 to the value at the designated point X3.

<第2実施形態>
本発明の第2実施形態を以下に説明する。以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In each of the embodiments exemplified below, elements having the same functions and functions as those of the first embodiment will be referred to in the description of the first embodiment, and detailed descriptions thereof will be appropriately omitted.

第2実施形態における合成情報Qの制御情報QCは、第1実施形態と同様に混合比率Rおよび第1特性変数(音量V)の時間変化を指定するほか、第2特性変数の時間変化を指定する。第2特性変数は、第1特性変数と同様に、合成対象音声の音響特性に関する変数(特徴量)である。第2実施形態では、音量Uを第2特性変数として例示する。音量V(第1特性変数)と音量U(第2特性変数)とは同種の音響特性であるが、音量Vは混合比率Rの時間変化との関連を考慮して調整されるのに対し、音量Uは、合成楽曲の各音符との関連(合成楽曲の進行に連動した音量の時間変化)を考慮して調整される。すなわち、例えば、音声素片PAと音声素片PBとの収録時の音量差に起因した合成音声の音量感の変化(混合比率Rの時間変化に連動した変化)が抑制されるように音量Vを混合比率Rに応じて調整しながら、合成楽曲の進行とともに音楽的な表現として音量Uを変化させることが可能である。   The control information QC of the composite information Q in the second embodiment specifies the time change of the second characteristic variable in addition to specifying the time change of the mixing ratio R and the first characteristic variable (volume V) as in the first embodiment. To do. Similar to the first characteristic variable, the second characteristic variable is a variable (feature amount) related to the acoustic characteristic of the synthesis target speech. In the second embodiment, the volume U is exemplified as the second characteristic variable. The volume V (first characteristic variable) and the volume U (second characteristic variable) are the same kind of acoustic characteristics, but the volume V is adjusted in consideration of the relationship with the temporal change of the mixing ratio R, whereas The volume U is adjusted in consideration of the relationship with each note of the synthesized music (time change in volume linked to the progress of the synthesized music). That is, for example, the volume V so that the change in the volume feeling of the synthesized speech due to the volume difference during recording between the speech unit PA and the speech unit PB (change associated with the temporal change in the mixing ratio R) is suppressed. Can be adjusted according to the mixing ratio R, and the volume U can be changed as a musical expression as the synthesized music progresses.

図12は、第2実施形態における編集画像30の模式図である。第2実施形態における変数画像50の変数領域52には、第1実施形態と同様の時間軸と、時間軸に交差する数値軸AY(縦軸)とが設定される。数値軸AYは、音量Uの数値を示す座標軸である。   FIG. 12 is a schematic diagram of an edited image 30 in the second embodiment. In the variable area 52 of the variable image 50 in the second embodiment, a time axis similar to that in the first embodiment and a numerical axis AY (vertical axis) intersecting the time axis are set. The numerical value axis AY is a coordinate axis indicating the numerical value of the volume U.

第2実施形態の変数画像50は、混合比率Rおよび音量Vの時間変化を第1実施形態と同様に遷移画像54の表示態様(色相や明度等)で表現するほか、制御情報QCが指定する音量Uの時間変化を遷移画像54の形状で表現する。具体的には、遷移画像54の上縁に位置する外形線56で音量Uの時間変化が表現される。図12では、遷移画像54の外形線56を、音量Uの時間変化を表現する折線とした場合が例示されている。遷移画像54の外形線56のうち時間軸上の任意の時点tでの1点に対応する数値軸AY上の数値が、当該時点tにおける音量Uの数値を意味する。   In the variable image 50 of the second embodiment, the temporal change of the mixing ratio R and volume V is expressed by the display mode (hue, brightness, etc.) of the transition image 54 as in the first embodiment, and is specified by the control information QC. The time change of the volume U is expressed by the shape of the transition image 54. Specifically, the time change of the volume U is expressed by the outline 56 located at the upper edge of the transition image 54. FIG. 12 illustrates a case where the outline 56 of the transition image 54 is a broken line that expresses the change in volume U over time. A numerical value on the numerical axis AY corresponding to one point at an arbitrary time point t on the time axis in the outline 56 of the transition image 54 means a numerical value of the volume U at the time point t.

利用者は、入力装置16を適宜に操作することで遷移画像54の外形線56の編集(変形)を指示することが可能である。表示制御部24は、指示受付部22が利用者から受付けた指示に応じて遷移画像54の外形線56を変形し、情報管理部26は、合成情報Qの制御情報QCが指定する音量Uの時間変化を利用者からの指示に応じて更新する。具体的には、情報管理部26は、音量Uの時間変化を、表示制御部24による変形後の外形線56で表現される時間変化に更新する。   The user can instruct editing (deformation) of the outline 56 of the transition image 54 by appropriately operating the input device 16. The display control unit 24 deforms the outline 56 of the transition image 54 according to the instruction received by the instruction receiving unit 22 from the user, and the information management unit 26 sets the volume U specified by the control information QC of the composite information Q. The time change is updated according to the instruction from the user. Specifically, the information management unit 26 updates the time change of the sound volume U to the time change represented by the outline 56 after being deformed by the display control unit 24.

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、混合比率Rおよび音量Vの時間変化が遷移画像54の表示態様(色相や明度等)で表現されるほか、合成楽曲内の音量Uの時間変化が遷移画像54の形状で表現される。したがって、例えば音量Uの時間変化を遷移画像54とは別個に表示する構成と比較して簡素な表示で、混合比率Rおよび音量Vに加えて音量Uの時間変化を利用者が確認できるという利点がある。   In the second embodiment, the same effect as in the first embodiment is realized. In the second embodiment, the temporal change in the mixing ratio R and the volume V is expressed by the display mode (hue, brightness, etc.) of the transition image 54, and the temporal change in the volume U in the composite music is the transition image 54. Expressed in shape. Therefore, for example, the user can confirm the time change of the sound volume U in addition to the mixing ratio R and the sound volume V with a simple display as compared with the configuration in which the time change of the sound volume U is displayed separately from the transition image 54. There is.

<第3実施形態>
図13は、第3実施形態における編集画像30の模式図である。第1実施形態では、楽譜領域42とは別個の変数領域52に配置された遷移画像54で混合比率Rおよび音量Vの時間変化を表現した。第3実施形態では、楽譜領域42内に配置された音符図像44を利用して混合比率Rおよび音量Vの時間変化を表現する。調整画像60の内容は第1実施形態と同様である。
<Third Embodiment>
FIG. 13 is a schematic diagram of an edited image 30 in the third embodiment. In the first embodiment, the temporal change of the mixing ratio R and the volume V is expressed by the transition image 54 arranged in the variable area 52 separate from the score area 42. In the third embodiment, the time change of the mixing ratio R and the volume V is expressed using the musical note image 44 arranged in the score area 42. The contents of the adjustment image 60 are the same as in the first embodiment.

図13から理解される通り、第3実施形態の表示制御部24は、制御期間内の各音符図像44の表示態様が、時間軸上の時点T1から時点T2にかけて、調整領域62内の指示点X1での表示態様から指示点X2での表示態様まで連続的に変化するように、各音符図像44の表示態様を制御する。例えば、楽譜領域42内の複数の音符図像44のうち時点T1を含む音符の音符図像44における当該時点T1での表示態様は、調整領域62内の指示点X1での表示態様に一致する。同様に、時点T2を含む音符の音符図像44における当該時点T2での表示態様は、調整領域62内の指示点X2での表示態様に一致する。また、時間軸上の任意の時点tを含む音符の音符図像44における当該時点tでの表示態様は、調整領域62のうち指示点X1から指示点X2までの経路C上で当該時点tに対応した地点の表示態様に設定される。   As understood from FIG. 13, the display control unit 24 of the third embodiment is configured such that the display form of each musical note iconic image 44 in the control period is the indication point in the adjustment area 62 from the time T1 to the time T2 on the time axis. The display mode of each musical note image 44 is controlled so as to continuously change from the display mode at X1 to the display mode at the indication point X2. For example, the display mode at the time point T1 of the musical note iconic image 44 including the time point T1 among the plurality of note image images 44 in the score area 42 matches the display mode at the indication point X1 in the adjustment area 62. Similarly, the display mode at the time point T 2 in the musical note iconic image 44 of the note including the time point T 2 matches the display mode at the indication point X 2 in the adjustment area 62. Further, the display mode at the time t in the musical note image 44 of a note including an arbitrary time t on the time axis corresponds to the time t on the path C from the designated point X1 to the designated point X2 in the adjustment region 62. The display mode of the selected point is set.

他方、変数画像50の変数領域52には、第2実施形態と同様に時間軸と数値軸AY(縦軸)とが設定され、制御情報QCが指定する音量Uの時間変化を表現する遷移線58が表示される。図13の遷移線58は、音量Uの時間変化を表現する折線であり、第2実施形態における遷移画像54の外形線56に相当する。なお、変数画像50を省略することも可能である。   On the other hand, in the variable area 52 of the variable image 50, a time axis and a numerical value axis AY (vertical axis) are set in the same manner as in the second embodiment, and a transition line expressing the time change of the volume U specified by the control information QC. 58 is displayed. A transition line 58 in FIG. 13 is a polygonal line that represents a temporal change in the volume U, and corresponds to the outline 56 of the transition image 54 in the second embodiment. The variable image 50 can be omitted.

第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、楽譜領域42内に配置された音符図像44の表示態様に応じて混合比率Rおよび音量Vの時間変化が表現されるから、混合比率Rおよび音量Vの時間変化と合成楽曲の各音符との関係を利用者が容易に把握できるという利点がある。   In the third embodiment, the same effect as in the first embodiment is realized. Further, in the third embodiment, the time change of the mixing ratio R and the volume V is expressed according to the display mode of the musical note image 44 arranged in the score area 42. There is an advantage that the user can easily grasp the relationship with each note of the synthesized music.

<第4実施形態>
図14は、第4実施形態における編集画像30の模式図である。図14に例示される通り、第4実施形態の楽譜領域42には、合成楽曲の各音符を表象する音符図像44と、各音符図像44に対応する補助図像46が配置される。相対応する音符図像44と補助図像46とは、相互に近接した位置(すなわち、音符図像44と補助図像46との対応関係を利用者が判別可能な位置)に配置される。補助図像46の時間軸上の表示長は、当該補助図像46に対応する音符図像44と共通する。
<Fourth embodiment>
FIG. 14 is a schematic diagram of an edited image 30 in the fourth embodiment. As illustrated in FIG. 14, in the musical score area 42 of the fourth embodiment, a musical note image 44 representing each note of the synthesized music and an auxiliary graphic image 46 corresponding to each musical note image 44 are arranged. The corresponding musical note image 44 and auxiliary graphic image 46 are arranged at positions close to each other (that is, a position where the user can determine the correspondence between the musical note graphic image 44 and the auxiliary graphic image 46). The display length on the time axis of the auxiliary iconic image 46 is common to the musical note iconic image 44 corresponding to the auxiliary iconic image 46.

第3実施形態では楽譜領域42内の各音符図像44を利用して混合比率Rおよび音量Vの時間変化を表現したが、第4実施形態では、音符図像44とは別個の各補助図像46を混合比率Rおよび音量Vの時間変化の表現に利用する。すなわち、補助図像46は、音符図像44が表象する音符に関連する変数(混合比率R,音量V)の表示を補助する図像として位置付けられる。なお、調整画像60の内容は第1実施形態と同様である。また、変数画像50の変数領域52には、第2実施形態と同様に、制御情報QCが指定する音量Uの時間変化を表現する遷移線58が表示される。変数画像50を省略することも可能である。   In the third embodiment, the time change of the mixing ratio R and the sound volume V is expressed using each musical note image 44 in the musical score area 42. However, in the fourth embodiment, each auxiliary graphic image 46, which is separate from the musical note graphic image 44, is represented. This is used for expressing the temporal change in the mixing ratio R and volume V. That is, the auxiliary iconic image 46 is positioned as an iconic image for assisting display of variables (mixing ratio R, volume V) related to the note represented by the note image 44. The contents of the adjustment image 60 are the same as those in the first embodiment. Also, in the variable area 52 of the variable image 50, similarly to the second embodiment, a transition line 58 expressing the time change of the volume U specified by the control information QC is displayed. The variable image 50 can be omitted.

図14から理解される通り、第3実施形態の表示制御部24は、制御期間内の各補助図像46の表示態様が、時間軸上の時点T1から時点T2にかけて、調整領域62内の指示点X1での表示態様から指示点X2での表示態様まで連続的に変化するように、各補助図像46の表示態様を制御する。例えば、時点T1を含む音符の補助図像46における当該時点T1の表示態様は、調整領域62内の指示点X1での表示態様に一致し、時点T2を含む音符の補助図像46における当該時点T2の表示態様は、調整領域62内の指示点X2での表示態様に一致する。また、時間軸上の任意の時点tを含む音符の補助図像46における当該時点tでの表示態様は、調整領域62のうち指示点X1から指示点X2までの経路C上で当該時点tに対応した地点の表示態様に設定される。   As understood from FIG. 14, the display control unit 24 of the third embodiment is configured such that the display mode of each auxiliary iconic image 46 in the control period is the indication point in the adjustment area 62 from the time T1 to the time T2 on the time axis. The display mode of each auxiliary iconic image 46 is controlled so as to continuously change from the display mode at X1 to the display mode at the designated point X2. For example, the display mode of the time point T1 in the auxiliary note image 46 including the time point T1 matches the display mode at the indication point X1 in the adjustment area 62, and the time point T2 in the auxiliary icon image 46 of the note including the time point T2 is displayed. The display mode matches the display mode at the designated point X 2 in the adjustment area 62. Further, the display mode at the time t in the auxiliary graphic image 46 of the note including the arbitrary time t on the time axis corresponds to the time t on the path C from the designated point X1 to the designated point X2 in the adjustment region 62. The display mode of the selected point is set.

第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、楽譜領域42内の各音符図像44に対応する補助図像46の表示態様に応じて混合比率Rおよび音量Vの時間変化が表現されるから、第3実施形態と同様に、混合比率Rおよび音量Vの時間変化と合成楽曲の各音符との関係を利用者が容易に把握できるという利点がある。   In the fourth embodiment, the same effect as in the first embodiment is realized. Further, in the fourth embodiment, since the temporal change of the mixing ratio R and the volume V is expressed according to the display mode of the auxiliary graphic image 46 corresponding to each musical note graphic image 44 in the score area 42, the same as in the third exemplary embodiment. In addition, there is an advantage that the user can easily grasp the relationship between the temporal change of the mixing ratio R and the volume V and each note of the synthesized music.

なお、混合比率Rおよび音量Vの表示に音符図像44を利用する第3実施形態では、第4実施形態の補助図像46が不要であるから、第4実施形態と比較して楽譜画像40の内容が簡素化される(表示要素の総数が削減される)という利点がある。他方、音符図像44とは別個の補助図像46を混合比率Rおよび音量Vの表示に利用する第4実施形態では、音符図像44の表示態様を混合比率Rや音量Vの時間変化とは無関係に選定でき(音符図像44の表示態様の選定の自由度が高い)、例えば各音符図像44に付加された音声符号q3の視認性を維持できるという利点がある。   In the third embodiment in which the musical note image 44 is used to display the mixing ratio R and the volume V, the auxiliary image 46 of the fourth embodiment is unnecessary, and therefore the content of the score image 40 compared to the fourth embodiment. Has the advantage of being simplified (the total number of display elements is reduced). On the other hand, in the fourth embodiment in which the auxiliary graphic image 46 separate from the musical note image 44 is used to display the mixing ratio R and the volume V, the display mode of the musical note image 44 is independent of the temporal change of the mixing ratio R and the volume V. There is an advantage that the visibility of the voice code q3 added to each musical note graphic image 44 can be maintained, for example, which can be selected (the degree of freedom in selecting the display form of the musical note graphic image 44 is high).

<第5実施形態>
第1実施形態から第4実施形態では2種類の音声(第1音声,第2音声)の混合処理を例示したが、声質が相違する3種類以上の音声の音声素片Pを混合する混合処理も想定され得る。3種類以上の音声の音声素片Pを混合する場面で混合比率Rの時間変化を調整する場合、各音声の比率を利用者が総合的に考慮しながら混合比率Rを決定する必要があり、利用者の作業負担が大きいという問題がある。第5実施形態は、3種類以上の音声の混合比率Rの時間変化を調整する利用者の作業負担を軽減するための形態である。
<Fifth Embodiment>
In the first embodiment to the fourth embodiment, the mixing process of two types of sounds (first sound and second sound) is exemplified. However, the mixing process of mixing three or more types of speech units P having different voice qualities. Can also be envisaged. When adjusting the time variation of the mixing ratio R in a scene where three or more types of speech segments P are mixed, the user needs to determine the mixing ratio R while comprehensively considering the ratio of each voice, There is a problem that the work burden on the user is large. The fifth embodiment is a form for reducing the work burden of the user who adjusts the time change of the mixing ratio R of three or more types of sounds.

図15は、第5実施形態における混合処理の説明図である。図15に例示される通り、第5実施形態の記憶装置12には、3個の音声ライブラリL(LA,LB,LC)が記憶される。音声ライブラリLCは、音声ライブラリLAの第1音声や音声ライブラリLBの第2音声とは声質(声色)が相違する第3音声から抽出された複数の音声素片PCの集合である。音声合成部28が実行する混合処理(SA3)では、音声ライブラリLAから選択された音声素片PAと音声ライブラリLBから選択された音声素片PBと音声ライブラリLCから選択された音声素片PCとが混合比率Rのもとで混合される。第5実施形態の混合比率Rは、第1音声の比率(加重値)λAと第2音声の比率λBと第3音声の比率λCとを包含する。混合処理は、例えば以下の数式(b)で表現される通り、音声素片PAの変数pAと音声素片PBの変数pBと音声素片PCの変数pCとを混合比率R(λA,λB,λC)に応じて加重加算することで、合成後の音声素片PSの声質に関する変数pSを算定する処理である。比率λAと比率λBと比率λCとの合計値は例えば1である。
pS=λA・pA+λB・pB+λC・pC ……(b)
FIG. 15 is an explanatory diagram of a mixing process in the fifth embodiment. As illustrated in FIG. 15, three sound libraries L (LA, LB, LC) are stored in the storage device 12 of the fifth embodiment. The speech library LC is a set of a plurality of speech segments PC extracted from a third speech having a different voice quality (voice color) from the first speech of the speech library LA and the second speech of the speech library LB. In the mixing process (SA3) executed by the speech synthesizer 28, the speech unit PA selected from the speech library LA, the speech unit PB selected from the speech library LB, and the speech unit PC selected from the speech library LC Are mixed under a mixing ratio R. The mixing ratio R of the fifth embodiment includes the ratio (weighted value) λA of the first sound, the ratio λB of the second sound, and the ratio λC of the third sound. In the mixing process, for example, the variable pA of the speech unit PA, the variable pB of the speech unit PB, and the variable pC of the speech unit PC are mixed as R (λA, λB, This is a process of calculating a variable pS relating to the voice quality of the synthesized speech element PS by performing weighted addition according to (λC). The total value of the ratio λA, the ratio λB, and the ratio λC is 1, for example.
pS = λA · pA + λB · pB + λC · pC (b)

以上の説明から理解される通り、音声素片PSの声質は、混合比率Rに応じて音声素片PAと音声素片PBと音声素片PCとの中間的な声質に設定され得る。混合処理で順次に生成される音声素片PSを時間軸上で相互に連結して音声信号Sを生成する動作は第1実施形態と同様である。合成情報Qの制御情報QCは、混合処理に適用される混合比率R(λA,λB,λC)の時間変化を指定する。第5実施形態では音量Vの時間変化は省略される。なお、第5実施形態の混合処理には、数式(b)以外にも公知の技術が任意に採用され得る。   As understood from the above description, the voice quality of the speech unit PS can be set to an intermediate voice quality among the speech unit PA, the speech unit PB, and the speech unit PC according to the mixing ratio R. The operation of generating the audio signal S by mutually connecting the speech segments PS sequentially generated by the mixing process on the time axis is the same as that of the first embodiment. The control information QC of the composite information Q designates the time change of the mixing ratio R (λA, λB, λC) applied to the mixing process. In the fifth embodiment, the time change of the volume V is omitted. In addition to the mathematical formula (b), a known technique can be arbitrarily employed for the mixing process of the fifth embodiment.

図16は、第5実施形態における編集画像30の模式図である。第5実施形態の編集画像30は、第1実施形態と同様の楽譜画像40と、混合比率Rの時間変化を調整するための調整画像60および変数画像50とを含んで構成される。第5実施形態の調整画像60は、音声合成処理に利用される各音声に対応する基準点G(GA,GB,GC)が相互に離間して設定された調整領域62を包含する。基準点GA(声色A)は第1音声(音声素片PA)に対応し、基準点GB(声色B)は第2音声(音声素片PB)に対応し、基準点GC(声色C)は第3音声(音声素片PC)に対応する。   FIG. 16 is a schematic diagram of an edited image 30 in the fifth embodiment. The edited image 30 of the fifth embodiment includes a score image 40 similar to that of the first embodiment, an adjustment image 60 for adjusting a temporal change in the mixing ratio R, and a variable image 50. The adjustment image 60 of the fifth embodiment includes an adjustment region 62 in which reference points G (GA, GB, GC) corresponding to each voice used for voice synthesis processing are set apart from each other. The reference point GA (voice color A) corresponds to the first voice (voice segment PA), the reference point GB (voice color B) corresponds to the second voice (voice segment PB), and the reference point GC (voice color C) is This corresponds to the third voice (speech element PC).

調整領域62内の各地点は位置に応じて相異なる表示態様で表示される。実際の調整領域62は多色の色彩を含むカラー画像であるが、図16では便宜的に、調整領域62内の色相を図面上の階調の濃淡(グレースケール)で代替的に表現した。具体的には、調整領域62の中心の周囲に青色と青色と緑色と赤色とにわたる連続的な色相の分布を波長順に配色した画像が調整領域62として好適である。   Each point in the adjustment area 62 is displayed in a different display mode depending on the position. The actual adjustment area 62 is a color image including multiple colors, but in FIG. 16, for the sake of convenience, the hue in the adjustment area 62 is alternatively expressed by the shade of gray (gray scale) on the drawing. Specifically, an image obtained by arranging a continuous hue distribution over blue, blue, green, and red in order of wavelength around the center of the adjustment region 62 is suitable as the adjustment region 62.

第1実施形態と同様に、指示受付部22は、変数領域52の時間軸上の複数の時点T(T1,T2,T3)の指示を利用者から受付け(SC2)、表示制御部24は、各時点Tを変数領域52内に表示する(SC3)。また、指示受付部22は、調整領域62の複数の指示点X(X1,X2,X3)の指示を利用者から受付け(SC4)、表示制御部24は、指示受付部22が受付けた各指示点Xと、相前後して指示された2個の指示点Xを連結する経路C(C12,C23)とを調整領域62内に表示する(SC5)。   As in the first embodiment, the instruction receiving unit 22 receives instructions from a user at a plurality of time points T (T1, T2, T3) on the time axis of the variable area 52 (SC2), and the display control unit 24 Each time point T is displayed in the variable area 52 (SC3). Further, the instruction receiving unit 22 receives instructions from the user for a plurality of instruction points X (X1, X2, X3) in the adjustment area 62 (SC4), and the display control unit 24 receives each instruction received by the instruction receiving unit 22. The point X and the path C (C12, C23) connecting the two designated points X designated in succession are displayed in the adjustment area 62 (SC5).

第5実施形態の1個の指示点Xは、混合比率R(λA,λB,λC)の各数値に対応した座標点である。具体的には、指示点Xが1個の基準点Gに近いほど、当該基準点Gに対応する音声の比率λ(λA,λB,λC)が大きい数値となるように、調整領域62内における指示点Xの位置に応じて混合比率Rの各比率λの数値が決定される。指示点Xの位置と各比率λの数値との関係の具体例を以下に列挙する。   One indication point X of the fifth embodiment is a coordinate point corresponding to each numerical value of the mixing ratio R (λA, λB, λC). More specifically, the closer the designated point X is to one reference point G, the larger the ratio λ (λA, λB, λC) of the sound corresponding to the reference point G becomes in the adjustment region 62. The numerical value of each ratio λ of the mixing ratio R is determined according to the position of the instruction point X. Specific examples of the relationship between the position of the indication point X and the numerical value of each ratio λ are listed below.

図17は、第5実施形態の調整領域62の模式図である。図17では、調整領域62内の各地点での表示態様の相違の図示を便宜的に省略した。図17における指示点の各位置σ(σ1,σ2,σ3,σ4,……)と、当該位置σの指示点Xに対応する各比率λの相対比(λA:λB:λC)との関係は、例えば以下の通りである。
(1)位置σ1(基準点GA) λA:λB:λC=10: 0: 0
(2)位置σ2(基準点GB) λA:λB:λC= 0:10: 0
(3)位置σ3(基準点GC) λA:λB:λC= 0: 0:10
(4)位置σ4 λA:λB:λC= 0:10:10
(5)位置σ5 λA:λB:λC= 5: 5: 0
(6)位置σ6 λA:λB:λC= 5: 0: 5
(7)位置σ7 λA:λB:λC=10: 5: 5
なお、指示点Xと混合比率R(各比率λ)との関係は以上の例示に限定されない。例えば、各音声の基準点Gから指示点Xまでの距離と当該基準点Gに対応する音声の比率λとが反比例するように、調整領域62内の指示点Xの位置に応じて各比率λの数値を決定することも可能である。
FIG. 17 is a schematic diagram of the adjustment region 62 of the fifth embodiment. In FIG. 17, illustration of the difference in display mode at each point in the adjustment area 62 is omitted for convenience. The relationship between each position σ (σ1, σ2, σ3, σ4,...) Of the indicated point in FIG. 17 and the relative ratio (λA: λB: λC) of each ratio λ corresponding to the indicated point X at the position σ is For example, as follows.
(1) Position σ1 (reference point GA) λA: λB: λC = 10: 0: 0
(2) Position σ2 (reference point GB) λA: λB: λC = 0: 10: 0
(3) Position σ3 (reference point GC) λA: λB: λC = 0: 0: 0
(4) Position σ4 λA: λB: λC = 0: 10: 10
(5) Position σ5 λA: λB: λC = 5: 5: 0
(6) Position σ6 λA: λB: λC = 5: 0: 5
(7) Position σ7 λA: λB: λC = 10: 5: 5
The relationship between the indication point X and the mixing ratio R (each ratio λ) is not limited to the above examples. For example, each ratio λ is set in accordance with the position of the indication point X in the adjustment region 62 so that the distance from the reference point G to the indication point X of each audio is inversely proportional to the audio ratio λ corresponding to the reference point G. It is also possible to determine the numerical value of.

表示制御部24は、第1実施形態と同様に、調整領域62内に指示された各指示点Xに応じた遷移画像54を変数画像50の変数領域52に配置する(SC6)。具体的には、図16から理解される通り、遷移画像54の表示態様は、時間軸上の時点T1から時点T2にかけて、調整領域62内の指示点X1での表示態様から指示点X2での表示態様まで連続的に変化するとともに、時間軸上の時点T2から時点T3にかけて、調整領域62内の指示点X2での表示態様から指示点X3での表示態様まで連続的に変化する。   Similar to the first embodiment, the display control unit 24 arranges the transition image 54 corresponding to each designated point X designated in the adjustment area 62 in the variable area 52 of the variable image 50 (SC6). Specifically, as understood from FIG. 16, the display mode of the transition image 54 is changed from the display mode at the designated point X1 in the adjustment area 62 from the time point T1 to the time point T2 on the time axis. While changing continuously to the display mode, from the time point T2 to the time point T3 on the time axis, it continuously changes from the display mode at the indicated point X2 in the adjustment area 62 to the display mode at the indicated point X3.

情報管理部26は、混合比率Rの各比率λが、調整領域62内の各指示点Xでの数値に応じて経時的に遷移するように、合成情報Qの制御情報QCを更新する(SC7)。具体的には、混合比率R(各比率λ)が、時点T1から時点T2にかけて、調整領域62内の指示点X1に対応する数値から指示点X2に対応する数値まで、経路C12に沿って遷移するとともに、時点T2から時点T3にかけて、調整領域62内の指示点X2に対応する数値から指示点X3に対応する数値まで、経路C23に沿って遷移するように、制御情報QCが更新される。   The information management unit 26 updates the control information QC of the composite information Q so that each ratio λ of the mixing ratio R changes with time according to the numerical value at each indicated point X in the adjustment region 62 (SC7). ). Specifically, the mixing ratio R (each ratio λ) changes along the path C12 from the time point T1 to the time point T2 from the numerical value corresponding to the designated point X1 in the adjustment region 62 to the numerical value corresponding to the designated point X2. At the same time, from time T2 to time T3, the control information QC is updated so that a transition is made along the path C23 from a numerical value corresponding to the designated point X2 in the adjustment region 62 to a numerical value corresponding to the designated point X3.

以上に説明した通り、第5実施形態では、混合処理に適用される各音声に対応する基準点G(GA,GB,GC)が設定された調整領域62に、利用者からの指示に応じた指示点X(X1,X2,X3)が設定され、各指示点Xの間にわたる混合比率R(λA,λB,λC)の時間変化が制御情報QCにて指定される。以上の構成によれば、利用者は、混合処理に適用される各音声の相互的な関係(各音声の比率λの関係)を調整領域62で視覚的に確認しながら混合比率Rの時間変化を指示することが可能である。したがって、混合比率Rの時間変化を調整する利用者の作業負担が軽減されるという利点がある。   As described above, in the fifth embodiment, the adjustment area 62 in which the reference point G (GA, GB, GC) corresponding to each sound applied to the mixing process is set according to an instruction from the user. The designated point X (X1, X2, X3) is set, and the time change of the mixing ratio R (λA, λB, λC) between the designated points X is designated by the control information QC. According to the above configuration, the user can change the mixing ratio R over time while visually confirming the mutual relationship (relationship between the ratios λ of the respective sounds) of the sounds applied to the mixing process in the adjustment region 62. Can be instructed. Therefore, there is an advantage that the work burden of the user who adjusts the time change of the mixing ratio R is reduced.

なお、第5実施形態でも、第2実施形態と同様に、制御情報QCが指定する音量Uの時間変化を遷移画像54の形状(外形線56の形状)で表現する構成が採用され得る。また、第3実施形態と同様に、調整領域62内の各指示点Xの間の表示態様の変化を、楽譜領域42内の各音符図像44の表示態様に応じて表現する構成や、第4実施形態と同様に、調整領域62内の各指示点Xの間の表示態様の変化を、楽譜領域42内の各補助図像46の表示態様に応じて表現する構成も、第5実施形態に採用され得る。   Note that, in the fifth embodiment, as in the second embodiment, a configuration in which the temporal change of the volume U specified by the control information QC is expressed by the shape of the transition image 54 (the shape of the outline 56) can be employed. Similarly to the third embodiment, a configuration in which a change in display mode between each indication point X in the adjustment area 62 is expressed according to the display mode of each musical note image 44 in the score area 42, Similarly to the embodiment, the fifth embodiment also adopts a configuration in which the change in the display mode between each indication point X in the adjustment area 62 is expressed according to the display mode of each auxiliary iconic image 46 in the score area 42. Can be done.

<第6実施形態>
図18は、第6実施形態の表示制御部24が表示装置14に表示させる調整画像60の模式図である。第6実施形態の調整画像60は、相互に交差する第1軸A1(横軸)と第2軸A2(縦軸)とが設定された調整領域62を包含する。第1軸A1と第2軸A2とは、相異なる種類の特性変数の数値を示す座標軸である。特性変数は、合成対象音声の音響特性に関する変数であり、音声合成部28による音声合成処理に適用される。例えば音声の明瞭度(brightness, clearness),気息成分の強弱(breathiness),男声/女声の度合(genderfactor),音高の微小変化(pitch-bend),音量(dynamics),発音の強弱(velocity)等の変数が特性変数として例示され得る。第1軸A1は、以上の例示から選択された第1特性変数の数値を示す座標軸であり、第2軸A2は、第1特性変数とは別種の第2特性変数の数値を示す座標軸である。
<Sixth Embodiment>
FIG. 18 is a schematic diagram of an adjustment image 60 that is displayed on the display device 14 by the display control unit 24 according to the sixth embodiment. The adjustment image 60 of the sixth embodiment includes an adjustment region 62 in which a first axis A1 (horizontal axis) and a second axis A2 (vertical axis) intersecting each other are set. The first axis A1 and the second axis A2 are coordinate axes indicating numerical values of different types of characteristic variables. The characteristic variable is a variable related to the acoustic characteristic of the synthesis target speech, and is applied to the speech synthesis processing by the speech synthesis unit 28. For example, speech intelligibility (brightness, clearness), breath component intensity (breathiness), male / female degree (genderfactor), pitch change (pitch-bend), volume (dynamics), pronunciation intensity (velocity) Etc. can be exemplified as characteristic variables. The first axis A1 is a coordinate axis indicating the numerical value of the first characteristic variable selected from the above examples, and the second axis A2 is a coordinate axis indicating the numerical value of the second characteristic variable different from the first characteristic variable. .

調整領域62内の各地点が位置に応じて相異なる表示態様で表示される点や、調整領域62内に利用者からの指示に応じて複数の指示点Xが設定される点は第1実施形態と同様である。また、第1実施形態と同様に、変数画像50の変数領域52には、利用者からの指示に応じた複数の時点Tが設定され、調整領域62内の各指示点Xの間と同様に時間軸上の各時点T間で表示態様が変化する遷移画像54が配置される。   The point that each point in the adjustment area 62 is displayed in a different display mode depending on the position, and the point that a plurality of instruction points X are set in the adjustment area 62 according to an instruction from the user is the first implementation. It is the same as the form. Similarly to the first embodiment, a plurality of time points T according to instructions from the user are set in the variable area 52 of the variable image 50, similarly to between the indicated points X in the adjustment area 62. A transition image 54 whose display mode changes between each time point T on the time axis is arranged.

合成情報Qの制御情報QCは、第1特性変数および第2特性変数の時間変化を指定する。情報管理部26は、第1特性変数および第2特性変数の数値が、調整領域62内の各指示点Xでの数値に応じて経時的に遷移するように、制御情報QCを更新する。具体的には、第1特性変数の数値が、時点T1から時点T2にかけて、第1軸A1上で指示点X1に対応する数値から指示点X2に対応する数値まで連続的に遷移するとともに、第2特性変数の数値が、時点T1から時点T2にかけて、第2軸A2上で指示点X1に対応する数値から指示点X2に対応する数値まで連続的に遷移するように、制御情報QCが更新される。   The control information QC of the composite information Q designates temporal changes of the first characteristic variable and the second characteristic variable. The information management unit 26 updates the control information QC so that the numerical values of the first characteristic variable and the second characteristic variable change over time according to the numerical values at each indicated point X in the adjustment region 62. Specifically, the numerical value of the first characteristic variable continuously transitions from the numerical value corresponding to the designated point X1 to the numerical value corresponding to the designated point X2 on the first axis A1 from the time T1 to the time T2. The control information QC is updated so that the numerical values of the two characteristic variables continuously transition from the numerical value corresponding to the designated point X1 to the numerical value corresponding to the designated point X2 on the second axis A2 from the time T1 to the time T2. The

以上に説明した通り、第6実施形態では、第1特性変数の第1軸A1と第2特性変数の第2軸A2とが設定された調整領域62に、利用者からの指示に応じた指示点X(X1,X2)が設定され、指示点X1に対応する数値から指示点X2に対応する数値まで遷移するように第1特性変数および第2特性変数の時間変化が設定される。以上の構成によれば、利用者は、第1特性変数と第2特性変数との関係を確認しながら両者の時間変化を指示することが可能である。したがって、音声合成処理に適用される特性変数を指示する利用者の作業負担を軽減できるという利点がある。   As described above, in the sixth embodiment, an instruction according to an instruction from the user is provided in the adjustment region 62 in which the first axis A1 of the first characteristic variable and the second axis A2 of the second characteristic variable are set. A point X (X1, X2) is set, and changes in time of the first characteristic variable and the second characteristic variable are set so as to transition from a numerical value corresponding to the designated point X1 to a numerical value corresponding to the designated point X2. According to the above configuration, the user can instruct a time change of both while confirming the relationship between the first characteristic variable and the second characteristic variable. Therefore, there is an advantage that it is possible to reduce the work load on the user who designates the characteristic variable applied to the speech synthesis process.

<変形例>
前述の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を適宜に併合することも可能である。
<Modification>
Each of the aforementioned embodiments can be variously modified. Specific modifications are exemplified below. Two or more modes arbitrarily selected from the following examples can be appropriately combined.

(1)前述の各形態では、調整領域62内の各指示点Xを直線の経路Cで連結したが、経路Cは直線に限定されない。例えば、図19に例示される通り、3個の指示点X(X1,X2,X3)に応じた補間曲線を経路Cとして設定する構成や、図20に例示される通り、各指示点X間で利用者が任意に指定した曲線(自由曲線)を経路Cとして設定する構成が採用され得る。 (1) In each form mentioned above, although each indication point X in the adjustment area | region 62 was connected with the linear path | route C, the path | route C is not limited to a straight line. For example, as illustrated in FIG. 19, a configuration in which an interpolation curve corresponding to three designated points X (X1, X2, X3) is set as a path C, or between each designated point X as illustrated in FIG. A configuration in which a curve (free curve) arbitrarily designated by the user is set as the path C can be adopted.

(2)前述の各形態では、調整領域62内の各地点の位置に応じて明度や色相を相違させたが、調整領域62内の各地点の位置に応じて相違させる表示態様は明度や色相に限定されない。例えば、図21に例示される通り、網掛やハッチング等のパターン(塗潰しパターン)を調整領域62内の各地点の位置に応じて相違させることも可能である。また、前述の各形態では調整領域62をカラー画像としたが、調整領域62を白黒画像として、調整領域62内の各地点の位置に応じて明度(階調)を相違させることも可能である。 (2) In each of the above-described forms, the brightness and hue are made different according to the position of each point in the adjustment area 62. However, the display mode to be made different according to the position of each point in the adjustment area 62 is lightness and hue. It is not limited to. For example, as illustrated in FIG. 21, a pattern such as shading or hatching (filled pattern) can be made different according to the position of each point in the adjustment region 62. In each of the above-described embodiments, the adjustment area 62 is a color image. However, the adjustment area 62 is a black and white image, and the brightness (gradation) can be varied depending on the position of each point in the adjustment area 62. .

(3)第1実施形態から第4実施形態では、混合比率Rとともに調整される第1特性変数として音量Vを例示したが、第1特性変数は音量Vに限定されない。また、第2実施形態では、遷移画像54の形状で時間変化が表現される第2特性変数として音量Uを例示したが、第2特性変数は音量Uに限定されない。例えば、第6実施形態で例示した通り、音声の明瞭度,気息成分の強弱,男声/女声の度合,音高の微小変化等を、第1実施形態から第4実施形態の第1特性変数や第2実施形態の第2特性変数として選択することも可能である。 (3) In the first to fourth embodiments, the volume V is exemplified as the first characteristic variable adjusted together with the mixing ratio R. However, the first characteristic variable is not limited to the volume V. In the second embodiment, the volume U is exemplified as the second characteristic variable in which the time change is expressed by the shape of the transition image 54. However, the second characteristic variable is not limited to the volume U. For example, as illustrated in the sixth embodiment, the intelligibility of speech, the strength of breath components, the degree of male / female voice, the minute change in pitch, etc. It is also possible to select it as the second characteristic variable of the second embodiment.

(4)前述の各形態では、時点T1から時点T2にわたる変数の時間変化に着目したが、例えば合成対象音声(合成楽曲)の全区間にわたる変数の時間変化を調整する場合にも本発明は同様に適用され得る。すなわち、変数の時間変化が調整される期間を合成対象音声の特定の期間(制御期間)に限定する構成は必須ではない。したがって、利用者による各時点Tの指示は省略され得る。また、時間軸上の各時点Tを利用者からの指示に応じて設定する構成は必須ではない。具体的には、利用者からの指示を要件としない所定の方法で合成対象音声(合成楽曲)に各時点Tを設定することも可能である。例えば、合成楽曲の歌唱区間(例えばフレーズ)を公知の方法で検出し、歌唱区間の始点および終点を各時点Tに設定すれば、歌唱区間の前方と後方とで歌唱音声の声質を相違させることが可能である。 (4) In each of the above-described embodiments, attention is paid to the time change of the variable from the time point T1 to the time point T2, but the present invention is similarly applied when adjusting the time change of the variable over the entire section of the synthesis target speech (synthesized music), for example. Can be applied to. That is, it is not essential to limit the period in which the time change of the variable is adjusted to a specific period (control period) of the synthesis target speech. Therefore, the instruction of each time point T by the user can be omitted. Moreover, the structure which sets each time T on a time-axis according to the instruction | indication from a user is not essential. Specifically, each time point T can be set for the synthesis target speech (synthesized music) by a predetermined method that does not require an instruction from the user. For example, if a singing section (for example, a phrase) of a synthesized music is detected by a known method and the starting point and ending point of the singing section are set to each time point T, the voice quality of the singing voice is made different between the front and rear of the singing section. Is possible.

(5)第5実施形態では、調整領域62の隅部に基準点Gを設定したが、図22に例示される通り、調整領域62の内部に基準点G(GA,GB,GC)を設定することも可能である。図22の例示では、各基準点Gを頂点とする三角形状の領域68が調整領域62の内側に画定される。また、図22の例示のように、各基準点Gで画定される領域68の内側および外側に指示点Xが設定され得る構成では、領域68の内側と外側とで混合処理の内容を相違させることも可能である。 (5) Although the reference point G is set at the corner of the adjustment area 62 in the fifth embodiment, the reference point G (GA, GB, GC) is set inside the adjustment area 62 as illustrated in FIG. It is also possible to do. In the example of FIG. 22, a triangular area 68 having each reference point G as a vertex is defined inside the adjustment area 62. Further, as illustrated in FIG. 22, in the configuration in which the instruction point X can be set inside and outside the region 68 defined by each reference point G, the content of the mixing process is different between the inside and outside of the region 68. It is also possible.

例えば、図22の例示の通り、指示点X1が領域68の内側に位置するとともに指示点X2が領域68の外側に位置する場合を想定する。音声合成部28は、時点T1から時点T2までの期間のうち経路C12上で領域68の内側の区間に対応する各時点tでは、第5実施形態の例示と同様に、全部(3種類)の音声の音声素片P(PA,PB,PC)を混合比率Rのもとで混合する。他方、時点T1から時点T2までの期間のうち経路C12上で領域68の外側の区間に対応する各時点tでは、指示点X2に近い2個の基準点G(GA,GC)に対応する音声素片P(PA,PC)を混合比率Rのもとで混合する。図22の例示では、指示点X2および指示点X3は何れも領域68の外側に位置するから、時点T2から時点T3までの期間では、音声素片PAと音声素片PCとが混合比率Rのもとで混合される。   For example, as illustrated in FIG. 22, it is assumed that the indication point X1 is located inside the region 68 and the indication point X2 is located outside the region 68. At each time point t corresponding to the section inside the region 68 on the route C12 in the period from the time point T1 to the time point T2, the speech synthesizer 28 performs all (three types) as in the fifth embodiment. A speech unit P (PA, PB, PC) of speech is mixed under a mixing ratio R. On the other hand, at each time point t corresponding to the section outside the area 68 on the path C12 in the period from the time point T1 to the time point T2, the sound corresponding to the two reference points G (GA, GC) close to the indication point X2. The piece P (PA, PC) is mixed under the mixing ratio R. In the example of FIG. 22, the indication point X2 and the indication point X3 are both located outside the region 68. Therefore, in the period from the time point T2 to the time point T3, the speech unit PA and the speech unit PC have the mixing ratio R. Mixed in.

(6)第5実施形態では、3種類の音声(第1音声,第2音声,第3音声)の混合を例示したが、混合対象となる音声の種類数は任意であり、例えば4種類以上の音声を混合することも可能である。図23は、5種類の音声を混合する場合の調整領域62の模式図である。図23に例示される通り、各音声に対応する5個の基準点G(GA,GB,GC,GD,GE)が円形状の調整領域62の円周上に設定される。 (6) In the fifth embodiment, the mixing of three types of sounds (first sound, second sound, and third sound) is exemplified, but the number of types of sounds to be mixed is arbitrary, for example, four or more types It is also possible to mix the voices. FIG. 23 is a schematic diagram of the adjustment area 62 when five types of sound are mixed. As illustrated in FIG. 23, five reference points G (GA, GB, GC, GD, GE) corresponding to each voice are set on the circumference of the circular adjustment region 62.

(7)前述の各形態では、合成情報Qの管理(表示制御部24および情報管理部26)と音声信号Sの生成(音声合成部28)との双方を実行する音声合成装置100を例示したが、合成情報Qを管理する音声合成管理装置としても本発明は特定され得る。音声合成管理装置では音声合成部28の有無は不問である。また、携帯電話機等の端末装置と通信するサーバ装置で音声合成装置100や音声合成管理装置を実現することも可能である。指示受付部22は、利用者が端末装置に付与した指示を端末装置から通信網を介して受付け、表示制御部24は、例えば編集画像30の画像データを端末装置に送信することで編集画像30を端末装置の表示装置に表示させる。また、音声合成部28は、音声合成処理で生成した音声信号Sを端末装置に送信する。 (7) In each of the above-described embodiments, the speech synthesizer 100 that executes both management of the synthesis information Q (display control unit 24 and information management unit 26) and generation of the speech signal S (speech synthesis unit 28) is illustrated. However, the present invention can also be specified as a speech synthesis management device that manages the synthesis information Q. In the speech synthesis management device, the presence or absence of the speech synthesizer 28 is not questioned. It is also possible to realize the speech synthesizer 100 and the speech synthesis management device with a server device that communicates with a terminal device such as a mobile phone. The instruction receiving unit 22 receives an instruction given by the user to the terminal device from the terminal device via the communication network, and the display control unit 24 transmits, for example, image data of the edited image 30 to the terminal device, thereby editing the edited image 30. Is displayed on the display device of the terminal device. The voice synthesizer 28 transmits the voice signal S generated by the voice synthesis process to the terminal device.

(8)前述の各形態では、合成楽曲の歌唱音声の音声信号Sの生成を例示したが、歌唱音声以外の音声(例えば会話音等)の音声信号Sの生成にも本発明を適用することが可能である。したがって、合成情報Qの楽曲情報QM(音高q1,発音期間q2)は省略され得る。また、前述の各形態では、日本語の音声の合成を例示したが、合成対象となる音声の言語は任意である。例えば、英語,スペイン語,中国語,韓国語等の任意の言語の音声を生成する場合にも本発明を適用することが可能である。 (8) In each of the above-described embodiments, the generation of the voice signal S of the singing voice of the synthesized music has been exemplified. However, the present invention is also applied to the generation of the voice signal S of the voice other than the singing voice (for example, conversation sound). Is possible. Therefore, the music information QM (pitch q1, tone generation period q2) of the composite information Q can be omitted. In each of the above-described embodiments, Japanese speech synthesis has been exemplified, but the speech language to be synthesized is arbitrary. For example, the present invention can be applied to the case of generating speech in an arbitrary language such as English, Spanish, Chinese, or Korean.

100……音声合成装置、10……演算処理装置、12……記憶装置、14……表示装置、16……入力装置、18……放音装置、22……指示受付部、24……表示制御部、26……情報管理部、28……音声合成部、30……編集画像、40……楽譜画像、42……楽譜領域、44……音符図像、46……補助図像、50……変数画像、52……変数領域、54……遷移画像、56……外形線、58……遷移線、60……調整画像、62……調整領域。 DESCRIPTION OF SYMBOLS 100 ... Voice synthesizer, 10 ... Arithmetic processing unit, 12 ... Memory | storage device, 14 ... Display device, 16 ... Input device, 18 ... Sound emission device, 22 ... Instruction reception part, 24 ... Display Control unit 26... Information management unit 28 .. speech synthesis unit 30 .. edit image 40 .. score image 42 .. score area 44 .. note image 46 .. auxiliary image 50. Variable image 52... Variable region 54. Transition image 56. Outline line 58. Transition line 60. Adjustment image 62.

Claims (5)

合成対象音声の合成時における第1音声と第2音声との混合比率を示す第1軸と、前記合成対象音声の音響特性に関する第1特性変数を示す第2軸とが設定された調整領域を含む調整画像を表示装置に表示させる表示制御手段と、
前記調整領域内の第1指示点および第2指示点の指示を利用者から受付ける指示受付手段と、
前記第1軸上で前記第1指示点に対応する数値から前記第2指示点に対応する数値への前記混合比率の時間変化と、前記第2軸上で前記第1指示点に対応する数値から前記第2指示点に対応する数値への前記第1特性変数の時間変化とを示す制御情報を生成する情報管理手段と
を具備する音声合成管理装置。
An adjustment region in which a first axis indicating a mixing ratio of the first voice and the second voice at the time of synthesis of the synthesis target voice and a second axis indicating a first characteristic variable related to the acoustic characteristic of the synthesis target voice is set. Display control means for causing the display device to display the adjusted image including
An instruction receiving means for receiving an instruction of the first indicating point and the second indicating point in the adjustment area from a user;
A time change of the mixing ratio from a numerical value corresponding to the first indicating point on the first axis to a numerical value corresponding to the second indicating point, and a numerical value corresponding to the first indicating point on the second axis A speech synthesis management device comprising: information management means for generating control information indicating a time change of the first characteristic variable from a to a numerical value corresponding to the second indication point.
前記情報管理手段は、前記合成対象音声のうち時間軸上の第1時点から第2時点までの期間について、前記第1軸上で前記第1指示点に対応する数値から前記第2指示点に対応する数値への前記混合比率の時間変化と、前記第2軸上で前記第1指示点に対応する数値から前記第2指示点に対応する数値への前記第1特性変数の時間変化とを示す制御情報を生成する
請求項1の音声合成管理装置。
The information management means sets the second instruction point from a numerical value corresponding to the first instruction point on the first axis for a period from the first time point to the second time point on the time axis in the synthesis target speech. A time change of the mixing ratio to a corresponding numerical value and a time change of the first characteristic variable from a numerical value corresponding to the first indicated point on the second axis to a numerical value corresponding to the second indicated point. The speech synthesis management device according to claim 1, wherein control information to be generated is generated.
前記表示制御手段は、
前記調整領域内の各地点が相異なる表示態様に設定された前記調整画像と、
時間軸上の前記第1時点から前記第2時点にかけて前記調整領域内の前記第1指示点での表示態様から前記第2指示点での表示態様に変化する遷移画像を含む変数画像と
を前記表示装置に表示させる
請求項2の音声合成管理装置。
The display control means includes
The adjustment image in which each point in the adjustment area is set to a different display mode;
A variable image including a transition image that changes from a display mode at the first indication point in the adjustment region to a display mode at the second indication point from the first time point to the second time point on the time axis. The speech synthesis management device according to claim 2, which is displayed on a display device.
前記表示制御手段は、前記合成対象音声の音響特性に関する第2特性変数の時間変化を前記遷移画像の形状で表現する前記変数画像を前記表示装置に表示させる
請求項3の音声合成管理装置。
The speech synthesis management device according to claim 3, wherein the display control unit causes the display device to display the variable image representing a time change of a second characteristic variable related to an acoustic property of the synthesis target speech in a shape of the transition image.
前記表示制御手段は、
前記調整領域内の各地点が相異なる表示態様に設定された前記調整画像と、
前記合成対象音声の各音符を表象する音符図像を、時間軸と音高軸とが設定された楽譜領域に配置した楽譜画像と
を前記表示装置に表示させ、前記各音符図像における時間軸上の各地点の表示態様を、前記調整領域における前記第1指示点から前記第2指示点までの経路のうち当該地点に対応した地点での表示態様に設定する
請求項2の音声合成管理装置。
The display control means includes
The adjustment image in which each point in the adjustment area is set to a different display mode;
A musical score image representing each note of the synthesis target speech and a musical score image arranged in a musical score area in which a time axis and a pitch axis are set are displayed on the display device, and on the time axis in each musical note graphic image The speech synthesis management device according to claim 2, wherein the display mode of each point is set to a display mode at a point corresponding to the point in the route from the first indication point to the second indication point in the adjustment region.
JP2013178514A 2013-08-29 2013-08-29 Speech synthesis management device Active JP6152753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013178514A JP6152753B2 (en) 2013-08-29 2013-08-29 Speech synthesis management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013178514A JP6152753B2 (en) 2013-08-29 2013-08-29 Speech synthesis management device

Publications (2)

Publication Number Publication Date
JP2015049253A true JP2015049253A (en) 2015-03-16
JP6152753B2 JP6152753B2 (en) 2017-06-28

Family

ID=52699360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013178514A Active JP6152753B2 (en) 2013-08-29 2013-08-29 Speech synthesis management device

Country Status (1)

Country Link
JP (1) JP6152753B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107228A (en) * 2017-02-20 2017-06-15 株式会社テクノスピーチ Singing voice synthesis device and singing voice synthesis method
JP2018077281A (en) * 2016-11-07 2018-05-17 ヤマハ株式会社 Speech synthesis method
WO2018230669A1 (en) * 2017-06-14 2018-12-20 ヤマハ株式会社 Vocal synthesizing method and vocal synthesizing system
WO2019239971A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
WO2019239972A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071664A1 (en) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. Voice synthesis device
JP2006178052A (en) * 2004-12-21 2006-07-06 Advanced Telecommunication Research Institute International Voice generator and computer program therefor
JP2012118385A (en) * 2010-12-02 2012-06-21 Yamaha Corp Speech synthesis information editing device
JP2013137520A (en) * 2011-11-29 2013-07-11 Yamaha Corp Music data editing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071664A1 (en) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. Voice synthesis device
JP2006178052A (en) * 2004-12-21 2006-07-06 Advanced Telecommunication Research Institute International Voice generator and computer program therefor
JP2012118385A (en) * 2010-12-02 2012-06-21 Yamaha Corp Speech synthesis information editing device
JP2013137520A (en) * 2011-11-29 2013-07-11 Yamaha Corp Music data editing device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077281A (en) * 2016-11-07 2018-05-17 ヤマハ株式会社 Speech synthesis method
JP2017107228A (en) * 2017-02-20 2017-06-15 株式会社テクノスピーチ Singing voice synthesis device and singing voice synthesis method
WO2018230669A1 (en) * 2017-06-14 2018-12-20 ヤマハ株式会社 Vocal synthesizing method and vocal synthesizing system
JP2019002999A (en) * 2017-06-14 2019-01-10 ヤマハ株式会社 Singing synthesis method and singing synthesis system
WO2019239971A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
WO2019239972A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
JPWO2019239972A1 (en) * 2018-06-15 2021-06-17 ヤマハ株式会社 Information processing methods, information processing devices and programs
JPWO2019239971A1 (en) * 2018-06-15 2021-07-08 ヤマハ株式会社 Information processing methods, information processing devices and programs
US11437016B2 (en) 2018-06-15 2022-09-06 Yamaha Corporation Information processing method, information processing device, and program
US12014723B2 (en) 2018-06-15 2024-06-18 Yamaha Corporation Information processing method, information processing device, and program

Also Published As

Publication number Publication date
JP6152753B2 (en) 2017-06-28

Similar Documents

Publication Publication Date Title
JP6152753B2 (en) Speech synthesis management device
EP2680254B1 (en) Sound synthesis method and sound synthesis apparatus
JP6236765B2 (en) Music data editing apparatus and music data editing method
JP6665446B2 (en) Information processing apparatus, program, and speech synthesis method
WO2017033612A1 (en) Display control method and synthetic sound editing device
JP2016090916A (en) Voice synthesizer
US10453478B2 (en) Sound quality determination device, method for the sound quality determination and recording medium
JP5625321B2 (en) Speech synthesis apparatus and program
JP5223433B2 (en) Audio data processing apparatus and program
JP5636665B2 (en) Music information processing apparatus and music information processing method
JP5509536B2 (en) Audio data processing apparatus and program
JP6136202B2 (en) Music data editing apparatus and music data editing method
US11437016B2 (en) Information processing method, information processing device, and program
JP2009157220A (en) Voice editing composite system, voice editing composite program, and voice editing composite method
JP4720974B2 (en) Audio generator and computer program therefor
JP6828530B2 (en) Pronunciation device and pronunciation control method
JP6337698B2 (en) Sound processor
US12014723B2 (en) Information processing method, information processing device, and program
JP2024057180A (en) PROGRAM, SOUND PROCESSING METHOD AND SOUND PROCESSING SYSTEM
JP5552797B2 (en) Speech synthesis apparatus and speech synthesis method
JP2015038622A (en) Voice synthesizer
JP6286946B2 (en) Speech synthesis apparatus and speech synthesis method
JP6497065B2 (en) Library generator for speech synthesis and speech synthesizer
JP2014170251A (en) Voice synthesis device, voice synthesis method and program
JP2016050995A (en) Acoustic processing device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170515

R151 Written notification of patent or utility model registration

Ref document number: 6152753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151