JP2012103654A - Voice synthesizer and program - Google Patents

Voice synthesizer and program Download PDF

Info

Publication number
JP2012103654A
JP2012103654A JP2010266776A JP2010266776A JP2012103654A JP 2012103654 A JP2012103654 A JP 2012103654A JP 2010266776 A JP2010266776 A JP 2010266776A JP 2010266776 A JP2010266776 A JP 2010266776A JP 2012103654 A JP2012103654 A JP 2012103654A
Authority
JP
Japan
Prior art keywords
character
character string
pitch
pronunciation
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010266776A
Other languages
Japanese (ja)
Other versions
JP5879682B2 (en
Inventor
Eiji Akazawa
英治 赤澤
Hidenori Kenmochi
秀紀 劔持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010266776A priority Critical patent/JP5879682B2/en
Publication of JP2012103654A publication Critical patent/JP2012103654A/en
Application granted granted Critical
Publication of JP5879682B2 publication Critical patent/JP5879682B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of easily assigning a note sequence to a character sequence.SOLUTION: A user touches a touch screen 31 to enter the character sequence into a text box 101. A voice synthesizer 100 displays the entered character sequence on the touch screen 31 as an entered character image 104. When the user traces the touch screen 31, a pitch curve 103 is displayed and the entered character sequence is pronounced from a speaker 111 in accordance with a shape of the pitch curve 103.

Description

本発明は、音声合成装置及びプログラムに関する。   The present invention relates to a speech synthesizer and a program.

複数の音の音高および音長(以下「音符列」という)がデータとして入力された場合に、マウスやキーボードの操作に応じて、入力された音符列に対して、音程の連続変化やビブラート等の音響効果を反映させる技術が知られている(例えば特許文献1〜4)。   When multiple pitches and pitches (hereinafter referred to as “note strings”) are input as data, continuous pitch changes and vibrato are applied to the input note strings in response to mouse and keyboard operations. Techniques for reflecting such acoustic effects are known (for example, Patent Documents 1 to 4).

特開平10−143155号公報Japanese Patent Laid-Open No. 10-143155 特許3781167号公報Japanese Patent No. 3781167 特許3620405号公報Japanese Patent No. 3620405 特開2002−372972号公報JP 2002-372972 A

ところで、歌は、歌詞という文字列と上述した音符列とが対応付けられたものであるが、上記特許文献1〜4に記載の技術は、音符列のみを処理の対象としたものであって、歌詞という文字列と音符列との関係を考慮した技術ではない。
本発明は、文字列に対して音符列の割り当てを容易に行える技術を提供することを目的とする。
By the way, the song is a character string that is associated with the character string of the lyrics and the above-described note string. However, the techniques described in Patent Documents 1 to 4 are intended to process only the note string. This is not a technology that takes into account the relationship between the character string and the note string.
It is an object of the present invention to provide a technique that can easily assign a note string to a character string.

本発明は、複数の文字によって構成された文字列を取得する文字列取得手段と、取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示手段と、時間を表す第1軸および音高を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示手段と、表示されている前記図形において、表示されている前記文字列を構成する各文字に対応する位置の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て手段と、前記文字列を構成する各文字を前記割り当て手段によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成手段とを備えることを特徴とした音声合成装置を提供する。   The present invention provides a character string acquisition unit that acquires a character string composed of a plurality of characters, a character string display unit that displays on the display unit each character that constitutes the acquired character string, and a first that represents time. When a figure in a coordinate system having an axis and a second axis representing a pitch is designated by the user, the figure is displayed on the display means in a state in which the figure is associated with each character constituting the character string. Means for assigning a pitch and a tone length to each character based on coordinate values of positions corresponding to each character constituting the displayed character string in the displayed graphic, and the character There is provided a speech synthesizer comprising speech synthesizer for synthesizing speech data that causes each character constituting a sequence to be pronounced at a pitch and a tone length assigned by the assigning means.

好ましい態様において、単語を発音するときの発音時間に対する、当該単語を構成する各文字の発音時間の長さ又は当該単語を構成する各文字の発音時間の比を、複数の単語について記憶する発音長辞書記憶手段を備え、前記割り当て手段は、前記文字列の全体を発音するときの音長であって利用者が指定した文字列音長と、当該文字列を構成する各文字について前記発音長辞書記憶手段に記憶されている前記発音時間の長さ又は前記発音時間の比とに基づいて、前記各文字に音長を割り当てるようにしてもよい。   In a preferred embodiment, a pronunciation length for storing a length of a pronunciation time of each character constituting the word or a ratio of a pronunciation time of each character constituting the word with respect to the pronunciation time when the word is pronounced for a plurality of words A dictionary storage means, wherein the assigning means is a sound length when the entire character string is pronounced and is designated by the user, and the pronunciation length dictionary for each character constituting the character string A sound length may be assigned to each character based on the length of the sound generation time or the ratio of the sound generation times stored in the storage means.

別の好ましい態様において、前記文字列を構成する各文字に音高又は音長を割り当てるときの指標を前記表示手段に表示させる指標表示手段を備え、前記割り当て手段は、前記指標表示手段によって表示されている指標に従って、前記図形において前記文字列を構成する各文字に対応する位置の座標値を補正し、当該補正後の座標値に基づき、前記各文字に音高及び音長を割り当てるようにしてもよい。   In another preferred aspect, the display device includes indicator display means for displaying on the display means an indicator when a pitch or a tone length is assigned to each character constituting the character string, and the assigning means is displayed by the indicator display means. The coordinate value of the position corresponding to each character constituting the character string in the graphic is corrected according to the index, and the pitch and the sound length are assigned to each character based on the corrected coordinate value. Also good.

さらに別の好ましい態様において、複数の図形の形状の各々に対応付けて、文字が発音される際に適用される音響効果を記憶した音響効果記憶手段を備え、前記図形表示手段は、前記表示手段に表示されている図形に対して重ね合わせられた図形が利用者によって指定されると、当該重ね合わせられた図形を前記表示手段に表示させ、前記割り当て手段は、前記音響効果記憶手段に記憶されている複数の図形の形状のうち、前記重ね合わせられた図形との類似度が閾値を超える図形の形状を特定し、特定した図形の形状に対応付けられて記憶されている音響効果を、当該重ね合わせられた図形の座標値に対応する位置に表示されている前記文字に割り当てるようにしてもよい。   In still another preferred embodiment, the graphic display means includes acoustic effect storage means for storing an acoustic effect applied when a character is pronounced in association with each of a plurality of graphic shapes, and the graphic display means includes the display means When a figure superimposed on the figure displayed on the screen is designated by the user, the superimposed figure is displayed on the display means, and the assigning means is stored in the acoustic effect storage means. Among the shapes of a plurality of figures, the shape of a figure whose similarity with the superimposed figure exceeds a threshold is specified, and the acoustic effect stored in association with the shape of the specified figure is You may make it allocate to the said character currently displayed on the position corresponding to the coordinate value of the superimposed figure.

また、本発明は、コンピュータに、複数の文字によって構成された文字列を取得する文字列取得機能と、取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示機能と、音高を表す第1軸および時間を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示機能と、表示されている前記文字列を構成する各文字に対応する前記図形の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て機能と、前記文字列を構成する各文字を前記割り当て機能によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成機能とを実現させるためのプログラムを提供する。   Further, the present invention provides a computer with a character string acquisition function for acquiring a character string composed of a plurality of characters, a character string display function for displaying each character constituting the acquired character string on a display means, When a graphic in a coordinate system having a first axis representing pitch and a second axis representing time is designated by the user, the display means is associated with each character constituting the character string. A graphic display function to be displayed on the screen, an assignment function for assigning a pitch and a pitch to each character based on the coordinate value of the graphic corresponding to each character constituting the displayed character string, and the character string There is provided a program for realizing a voice synthesis function for synthesizing voice data for causing each constituent character to be generated at a pitch and a tone length assigned by the assignment function.

本発明によれば、文字列に対して音符列の割り当てを容易に行うことが可能となる。   According to the present invention, it is possible to easily assign a note string to a character string.

本発明の実施形態に係る音声合成装置のハードウェア構成を表すブロック図The block diagram showing the hardware constitutions of the speech synthesizer concerning the embodiment of the present invention. 発音辞書DBの内容を表す図A diagram showing the contents of the pronunciation dictionary DB 最短発音時間DBの内容を表す図A diagram showing the contents of the shortest pronunciation time DB 音声DBの内容を表す図The figure which shows the contents of voice DB 音響効果DBの内容を表す図The figure showing the contents of the sound effect DB 音声合成装置の機能構成を表すブロック図Block diagram showing functional configuration of speech synthesizer 音声合成装置の外観及び表示内容を表す図The figure showing the appearance and display contents of the speech synthesizer 音声合成装置の処理フロー図Processing flow diagram of speech synthesizer 軌跡分析処理及び文字間隔制御処理を説明するための模式図Schematic diagram for explaining trajectory analysis processing and character spacing control processing 音声合成処理を説明するための模式図Schematic diagram for explaining speech synthesis processing 音声合成処理を説明するための模式図Schematic diagram for explaining speech synthesis processing 音声合成処理を説明するための模式図Schematic diagram for explaining speech synthesis processing 音声DBの内容を表す図The figure which shows the contents of voice DB 変形例10を説明するための模式図Schematic diagram for explaining the modification 10 音高に対する補正機能を説明する模式図Schematic diagram explaining the correction function for pitch 音長に対する補正機能を説明する模式図Schematic diagram explaining the correction function for sound length 初期値発音辞書DBの内容を表す図The figure which shows the contents of initial value pronunciation dictionary DB 変形例13に係る、音声合成装置の表示内容を表す図The figure showing the display content of the speech synthesizer based on modification 13

以下、本発明の一実施形態について説明する。
<実施形態>
<構成>
図1は、本発明の実施形態に係る音声合成装置100のハードウェア構成を表すブロック図である。この音声合成装置100は、制御部10、記憶部20、UI(User Interface)部30、及び音声出力部40を備えており、各部がバスを介して接続されている。音声合成装置100は、文字列と、音符列を含む発音に関する情報である音声情報とに基づいて音声データを合成し、この合成された音声データに基づく音声を出力する装置である。本実施形態においては、音声合成装置100はスマートフォンである。制御部10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有する。CPUは、ROMや記憶部20に記憶されている制御プログラムを読み出して、RAMにロードして実行することにより、音声合成装置100の各部をバス経由で制御する。また、RAMは、CPUがデータの加工などを行う際のワークエリアとして機能する。
Hereinafter, an embodiment of the present invention will be described.
<Embodiment>
<Configuration>
FIG. 1 is a block diagram showing a hardware configuration of a speech synthesizer 100 according to an embodiment of the present invention. The speech synthesizer 100 includes a control unit 10, a storage unit 20, a UI (User Interface) unit 30, and a speech output unit 40, which are connected via a bus. The voice synthesizer 100 is a device that synthesizes voice data based on a character string and voice information that is information related to pronunciation including a note string, and outputs a voice based on the synthesized voice data. In the present embodiment, the speech synthesizer 100 is a smartphone. The control unit 10 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU reads out a control program stored in the ROM or the storage unit 20, loads it into the RAM, and executes it to control each unit of the speech synthesizer 100 via the bus. The RAM functions as a work area when the CPU processes data.

記憶部20は、コンピュータを音声合成装置として機能させるためのアプリケーションプログラム(以下このプログラムを「音声合成アプリケーション」という)を記憶している。制御部10がこの音声合成アプリケーションを実行することにより、音声合成装置100に、後述する図6に示される機能が実現される。また、記憶部20は、発音辞書DB(Database)21、最短発音時間DB22、音声DB23、及び音響効果DB24を備える。発音辞書DB21は、利用者によって入力された文字列に発音時間が割り当てられる際の基準となるデータである、複数の発音レコードからなる。最短発音時間DB22は、「あ」や「い」といった一文字毎に、その文字が発音される場合に最低限必要とされる時間の長さを割り当てたものである、複数の最短発音時間レコードからなる。   The storage unit 20 stores an application program for causing a computer to function as a speech synthesizer (hereinafter, this program is referred to as “speech synthesis application”). When the control unit 10 executes this speech synthesis application, the function shown in FIG. 6 to be described later is realized in the speech synthesis device 100. The storage unit 20 includes a pronunciation dictionary DB (Database) 21, a shortest pronunciation time DB 22, a voice DB 23, and an acoustic effect DB 24. The pronunciation dictionary DB 21 is composed of a plurality of pronunciation records, which are data used as a reference when a pronunciation time is assigned to a character string input by a user. The shortest pronunciation time DB 22 is obtained by assigning, for each character such as “A” and “I”, a minimum length of time required when the character is pronounced, from a plurality of shortest pronunciation time records. Become.

音声DB23は、利用者による入力内容に従って合成される音声に関するデータである、複数の音声レコードからなる。この音声レコードは、利用者が入力した文字列(入力文字列という)に対して、この文字列を構成する1文字毎に音符列と音響効果とを対応付けたものである。この音声レコードは、利用者による入力内容に従って生成され、音声DB23に登録される。音響効果DB24は、予め決められた図形の形状(音響効果図形という)と音響効果の種類とを対応付けた、複数の音響効果レコードからなる。例えば、或る一定範囲の間隔でピーク値をとる波形の図形に対しては、ビブラートという音響効果が対応付けられている、といった具合である。   The voice DB 23 is composed of a plurality of voice records, which are data related to voice synthesized according to the content input by the user. In this voice record, a note string and a sound effect are associated with a character string (referred to as an input character string) input by a user for each character constituting the character string. This voice record is generated according to the input content by the user and registered in the voice DB 23. The acoustic effect DB 24 is composed of a plurality of acoustic effect records in which predetermined graphic shapes (referred to as acoustic effect graphics) and acoustic effect types are associated with each other. For example, an acoustic effect called vibrato is associated with a waveform figure having a peak value at an interval of a certain range.

図2は、発音辞書DB21の内容を表す図である。発音辞書DB21に含まれる各発音レコードは、識別ID、文字列、文字数、及び基準割り当て音長といった複数の項目からなる。識別IDは、各発音レコードを一意に識別するためのIDであり、例えば6桁の数字からなる。文字列は、発音の対象となる単語として予め決められたものである。文字数は、文字列を構成する文字の数である。基準割り当て音長は、文字列を構成する各文字についてその文字列の先頭の文字から順番に割り当てられた発音時間の長さである。基準割り当て音長においては、該当する文字列が自然な抑揚で発音された場合に掛かる時間の長さに基づいて、各文字における音長が予め決定されている。例えば識別IDが「000001」である発音レコードは、「おはよう」という「4つ」の文字数からなる文字列について、「お」、「は」、及び「よ」という文字についてはそれぞれ「0.2秒」ずつ発音がなされ、「う」という文字については「0.1秒」発音がなされることを表している。これらの0.2秒とか0.1秒という数値は、文字列を構成する各文字の発音時間の比を意味しているから、発音辞書DB21は、単語を発音するときの発音時間に対する、当該単語を構成する各文字の発音時間の比を、複数の単語について記憶する発音辞書記憶手段の一例である。   FIG. 2 is a diagram showing the contents of the pronunciation dictionary DB 21. Each pronunciation record included in the pronunciation dictionary DB 21 includes a plurality of items such as an identification ID, a character string, the number of characters, and a reference assigned sound length. The identification ID is an ID for uniquely identifying each pronunciation record, and is composed of, for example, a six-digit number. The character string is predetermined as a word to be pronounced. The number of characters is the number of characters constituting the character string. The reference assigned sound length is the length of the pronunciation time assigned in order from the first character of the character string for each character constituting the character string. In the reference assigned sound length, the sound length of each character is determined in advance based on the length of time taken when the corresponding character string is pronounced with natural inflection. For example, the pronunciation record with the identification ID “000001” is “0.2” for the characters “o”, “ha”, and “yo” for the character string consisting of “four” characters “good morning”. "Second" is pronounced, and "u" is pronounced "0.1 second". These numerical values of 0.2 seconds or 0.1 seconds mean a ratio of pronunciation time of each character constituting the character string, so that the pronunciation dictionary DB 21 has a value corresponding to the pronunciation time when the word is pronounced. It is an example of the pronunciation dictionary memory | storage means which memorize | stores the pronunciation time ratio of each character which comprises a word about several words.

図3は、最短発音時間DB22の内容を表す図である。最短発音時間DB22に含まれる各最短発音時間レコードは、識別ID、文字、及び最短発音時間といった複数の項目からなる。識別IDは、各最短発音時間レコードを一意に識別するためのIDであり、例えば4桁の数字からなる。文字は、例えば平仮名であれば「あ」から「ん」までの文字である。ここで、文字は、平仮名に限らず、漢字、数字あるいはアルファベット等であってもよい。最短発音時間は、該当する文字が発音される場合に最低限必要とされる時間の長さであり、例えば実験的にその文字を聞き取ることが可能とされた最短時間に基づいて予め決定されている。例えば図3において、「あ」という文字は、少なくとも「0.05秒」の発音時間が必要とされることを表している。この最短発音時間DB22は、文字が発音されるときの最短の音長を複数の文字について記憶する最短発音時間記憶手段である。なお、文字によっては(例えば母音である「あ」、「い」、「う」、「え」及び「お」や、撥音である「ん」)、最短発音時間DB22に最短発音時間レコードが登録されていなくともよい。   FIG. 3 is a diagram showing the contents of the shortest pronunciation time DB 22. Each shortest pronunciation time record included in the shortest pronunciation time DB 22 includes a plurality of items such as an identification ID, characters, and the shortest pronunciation time. The identification ID is an ID for uniquely identifying each shortest pronunciation time record, and is composed of, for example, a 4-digit number. For example, in the case of Hiragana, the characters are characters from “a” to “n”. Here, the characters are not limited to hiragana, but may be kanji, numbers, alphabets, or the like. The shortest pronunciation time is a minimum length of time required when a corresponding character is pronounced. For example, the shortest pronunciation time is determined in advance based on the shortest time that the character can be heard experimentally. Yes. For example, in FIG. 3, the letters “A” indicate that a pronunciation time of at least “0.05 seconds” is required. The shortest pronunciation time DB 22 is shortest pronunciation time storage means for storing the shortest sound length when a character is pronounced for a plurality of characters. Depending on the character (for example, “A”, “I”, “U”, “E” and “O” which are vowels and “N” which is a repellent sound), the shortest pronunciation time record is registered in the shortest pronunciation time DB 22. It does not have to be.

図4は音声DB23の内容を表す図である。音声DB23に含まれる音声レコードは、文字順ID、入力文字、音高、音長、及び音響効果といった複数の項目からなる。文字順IDは、各音声レコードを一意に識別し、且つ各入力文字の並び順を表すためのIDであり、例えば4桁の数字からなる。入力文字は、利用者によって歌詞として入力された文字列を構成する各文字である。音高は、文字が発音される際の音の高さであり、周波数により表される。音長は、文字が発音される際に掛かる時間を表す。音響効果は、文字に適用される音響効果の種類を表す。以降において、文字に対して音響効果が適用されることを、その音響効果が“かかった”状態であるという場合がある。例えば図4に示される音声レコードに対応する文字列が発音される際には、文字順IDに従って、「こ」、「ん」、「に」、「ち」、「は」の順番で発音がなされる。図4において、例えば「こ」という文字は、「406Hz」の音高で「0.3秒」の間、「ビブラート」のかかった状態で発音がなされることを表している。なお、図4では、「こんにちは」という文字列についての音声レコードしか図示していないが、実際には、この「こんにちは」以外の全ての文字列に含まれる各文字についての音声レコードがこの音声DB23に含まれている。   FIG. 4 is a diagram showing the contents of the voice DB 23. The voice record included in the voice DB 23 includes a plurality of items such as a character order ID, input characters, pitches, pitches, and sound effects. The character order ID is an ID for uniquely identifying each voice record and indicating the order of the input characters, and is composed of, for example, a four-digit number. An input character is each character which comprises the character string input as a lyric by the user. The pitch is the pitch when a character is pronounced and is represented by a frequency. The sound length represents the time taken when a character is pronounced. The sound effect represents the type of sound effect applied to the character. In the following, when an acoustic effect is applied to a character, it may be said that the acoustic effect is “applied”. For example, when a character string corresponding to the voice record shown in FIG. 4 is pronounced, the pronunciation is in the order of “ko”, “n”, “ni”, “chi”, “ha” according to the character order ID. Made. In FIG. 4, for example, the character “ko” represents that the pronunciation is made with “vibrato” applied for “0.3 seconds” at a pitch of “406 Hz”. In FIG. 4, although only shown audio record of the character string "Hello", in fact, voice record for each character that is included in all of the character string other than the "Hello" is this voice DB23 Included.

図5は音響効果DB24の内容を表す図である。
音響効果DB24に含まれる音響効果レコードは、識別ID、音響効果図形、音響効果といった複数の項目からなる。識別IDは各音響効果レコードを一意に識別する数字であり、例えば3桁の数字からなる。音響効果図形は、図形の形状を表すデータであり、音響効果レコード毎にその形状が異なっている。音響効果は、発音の際に文字にかけられる音響効果の種類である。例えば、図5に示されるように、識別IDが「001」であって、音響効果図形が或る一定範囲の間隔でピーク値をとる波型の図形である音響効果レコードには、「ビブラート」の音響効果が対応付けられている。音響効果DB24は、複数の図形の形状の各々に対応付けて、文字が発音される際に適用される音響効果とを対応付けて記憶した音響効果記憶手段である。
FIG. 5 is a diagram showing the contents of the acoustic effect DB 24.
The sound effect record included in the sound effect DB 24 includes a plurality of items such as an identification ID, a sound effect graphic, and a sound effect. The identification ID is a number that uniquely identifies each sound effect record, and includes, for example, a three-digit number. The sound effect graphic is data representing the shape of the graphic, and the shape is different for each sound effect record. The acoustic effect is a type of acoustic effect that can be applied to characters during pronunciation. For example, as shown in FIG. 5, “Vibrato” is included in the sound effect record whose identification ID is “001” and the sound effect graphic is a wave-shaped graphic that takes a peak value at a certain range interval. Are associated with each other. The acoustic effect DB 24 is an acoustic effect storage unit that associates and stores acoustic effects applied when a character is pronounced in association with each of a plurality of graphic shapes.

再び図1に戻る。UI部30は、ボタン(非図示)及びタッチスクリーン31を備える。利用者が、ボタンあるいはタッチスクリーン31を操作すると、UI部30はその操作に応じた信号を制御部10に供給する。制御部10は、受け取った信号に基づいて音声合成装置100の全体を制御する。タッチスクリーン31は、表示装置の画面上に光透過性のタッチセンサが積層された構造を有している。利用者は、表示装置に表示されている画像を見ながら、タッチスクリーン31に指を触れたりタッチスクリーン31上を指でなぞったりするなどの操作を行うことにより、音声合成装置100に対して指示を入力する。   Returning again to FIG. The UI unit 30 includes buttons (not shown) and a touch screen 31. When the user operates the button or the touch screen 31, the UI unit 30 supplies a signal corresponding to the operation to the control unit 10. The control unit 10 controls the entire speech synthesizer 100 based on the received signal. The touch screen 31 has a structure in which a light transmissive touch sensor is stacked on a screen of a display device. The user gives instructions to the speech synthesizer 100 by performing an operation such as touching the touch screen 31 or tracing the touch screen 31 with a finger while viewing the image displayed on the display device. Enter.

音声出力部40は、DAC(Digital Analog Converter)、アンプ、及びスピーカを備えている。音声出力部40は、制御部10から供給されるデジタルの音声データをDACによってアナログの音声データに変換して、それをさらにアンプで増幅し、スピーカから増幅後のアナログの音声信号に応じた音声を出力させる。   The audio output unit 40 includes a DAC (Digital Analog Converter), an amplifier, and a speaker. The audio output unit 40 converts the digital audio data supplied from the control unit 10 into analog audio data by the DAC, further amplifies it with an amplifier, and outputs audio corresponding to the amplified analog audio signal from the speaker. Is output.

この音声合成装置100において、利用者は、タッチスクリーン31を介して、発音対象の文字列(つまり歌詞)を入力し、さらにこの文字列をどのように発音させるかを表す音声情報を図形によって入力する。この音声情報は、入力された文字列に対する文字列音長、音高、音長、及び音響効果を表している。なお、文字列音長とは、文字列全体が発音される際に掛かる時間のことであり、各文字に割り当てられる音長を合計した時間に相当する。音声合成装置100は、これらの文字列と音声情報とに基づいて音声データを合成し、この合成された音声データに基づく音声を出力する。   In this speech synthesizer 100, a user inputs a character string to be pronounced (that is, lyrics) via the touch screen 31, and further inputs speech information representing how to pronounce this character string as a figure. To do. This voice information represents a character string sound length, a pitch, a sound length, and a sound effect with respect to the input character string. The character string sound length is the time taken when the entire character string is pronounced, and corresponds to the total time of the sound lengths assigned to each character. The speech synthesizer 100 synthesizes speech data based on these character strings and speech information, and outputs speech based on the synthesized speech data.

図6は、音声合成装置100の機能構成を表すブロック図である。文字列取得手段11は、利用者がタッチスクリーン31を介して入力した、複数の文字によって構成された文字列を取得し、RAMに記憶させる。基準音長特定手段12は、RAMに記憶された入力文字列を用いて発音辞書DB21を検索し、該当する発音レコードを特定すると、特定した発音レコードをRAMに記憶する。   FIG. 6 is a block diagram illustrating a functional configuration of the speech synthesizer 100. The character string acquisition unit 11 acquires a character string composed of a plurality of characters input by the user via the touch screen 31, and stores it in the RAM. The reference sound length specifying means 12 searches the pronunciation dictionary DB 21 using the input character string stored in the RAM, and when the corresponding pronunciation record is specified, stores the specified pronunciation record in the RAM.

表示制御手段13は、利用者によりUI部30を通じて行われた操作に応じて、タッチスクリーン31に表示する内容を制御する。例えば、表示制御手段13は、RAMに記憶された入力文字列について、この入力文字列を構成する文字の各々を表す画像(入力文字画像という)をタッチスクリーン31に表示させる。このように、表示制御手段13は、取得された文字列を構成する各文字を表示手段であるタッチスクリーン31に表示させる文字列表示手段13Aとして機能する。また、表示制御手段13は、利用者がタッチスクリーン31を指でなぞったときの、その指先の位置の軌跡をタッチスクリーン31に表示させる。タッチスクリーン31は、後述する図7で説明するように、時間を表す第1軸と音高を表す第2軸とで構成される座標系が設定された表示領域を備えており、この表示領域に対して利用者がタッチスクリーン31を指でなぞって軌跡を描く。この軌跡は、上述した音声情報を表す図形、つまり入力文字列に対する文字列音長、音高、音長、及び音響効果を表す図形に相当するものであり、後述する図7で説明するように、入力文字画像に対応付けた状態でタッチスクリーン31に表示される。以下、この図形のことをピッチカーブという。このように、表示制御手段13は、利用者によって指定された、時間を表す第1軸および音高を表す第2軸を有する座標系における図形(ピッチカーブ103)を、入力文字列を構成する各文字を表す入力文字画像104に対応付けた状態でタッチスクリーン31に表示させる図形表示手段13Bとして機能する。   The display control unit 13 controls the content displayed on the touch screen 31 in accordance with an operation performed by the user through the UI unit 30. For example, the display control unit 13 causes the touch screen 31 to display an image (referred to as an input character image) representing each character constituting the input character string for the input character string stored in the RAM. Thus, the display control means 13 functions as the character string display means 13A that displays each character constituting the acquired character string on the touch screen 31 that is a display means. In addition, the display control unit 13 causes the touch screen 31 to display a locus of the position of the fingertip when the user traces the touch screen 31 with a finger. As will be described later with reference to FIG. 7, the touch screen 31 includes a display area in which a coordinate system including a first axis representing time and a second axis representing pitch is set. The user traces the touch screen 31 with his / her finger. This trajectory corresponds to the graphic representing the above-described voice information, that is, the graphic representing the character string sound length, pitch, tone length, and acoustic effect for the input character string, and will be described later with reference to FIG. Are displayed on the touch screen 31 in association with the input character image. Hereinafter, this figure is referred to as a pitch curve. In this way, the display control means 13 constitutes an input character string with a figure (pitch curve 103) in a coordinate system having a first axis representing time and a second axis representing pitch specified by the user. The graphic display means 13B is displayed on the touch screen 31 in a state associated with the input character image 104 representing each character.

文字間隔制御手段14は、利用者がタッチスクリーン31に表示される入力文字画像をドラッグし、その表示位置を変更する操作に応じて、各入力文字画像104の間隔を制御し、この制御内容(文字間隔制御内容という)をRAMに記憶するとともに表示制御手段13に入力する。ここで、入力文字画像104とは、利用者がテキストボックス101に入力した内容に応じて表示される各文字の画像である(図7参照)。また、ここでいうドラッグとは、タッチスクリーン31上で入力文字画像104を指先で触って選択し、そのままの状態で指先を移動させることをいう。文字間隔制御内容には、タッチスクリーン31に表示される各入力文字画像104同士の間の距離を表す数値が含まれる。この数値は常に0以上の値を取る。表示制御手段13は、入力された文字間隔制御内容に含まれる、隣り合う位置にある入力文字画像の距離を表す数値(文字間隔値という)が0である場合、タッチスクリーン31において、これらの入力文字画像104を結合された状態で表示させる。ここで、「結合」とは、1つの入力文字画像104を囲む矩形と、この入力文字画像104と隣り合う入力文字画像104を囲む矩形とが接している状態を意味する(図7参照)。   The character spacing control means 14 controls the spacing between the input character images 104 in accordance with an operation of dragging the input character image displayed on the touch screen 31 and changing the display position. Is stored in the RAM and is input to the display control means 13. Here, the input character image 104 is an image of each character displayed in accordance with the content input by the user in the text box 101 (see FIG. 7). Further, the dragging here means that the input character image 104 is selected by touching it with the fingertip on the touch screen 31, and the fingertip is moved as it is. The character spacing control content includes a numerical value representing the distance between the input character images 104 displayed on the touch screen 31. This number always takes a value of 0 or more. When the numerical value (referred to as character spacing value) representing the distance between the input character images at adjacent positions included in the inputted character spacing control content is 0, the display control means 13 performs these inputs on the touch screen 31. The character image 104 is displayed in a combined state. Here, “combined” means a state in which a rectangle surrounding one input character image 104 and a rectangle surrounding the input character image 104 adjacent to this input character image 104 are in contact (see FIG. 7).

また、表示制御手段13は、文字間隔値が0でない場合、この文字間隔値に応じた距離を空けて、入力文字画像104を分離された状態で表示させる。ここで、「分離」とは、1つの入力文字画像104を囲む矩形と、この入力文字画像104と隣り合う入力文字画像104を囲む矩形とが離れている状態を意味する。つまり、文字列表示手段13Aとして機能する表示制御手段13は、タッチスクリーン31に表示されている各文字の位置を利用者の指示に従って変更して、この各文字を表示させる(図7参照)。軌跡分析手段15は、上述したピッチカーブと各入力文字画像104との関係を分析し、入力文字列に対する文字列音長、音高、音長、及び音響効果を分析結果として算出すると、この分析結果をRAMに記憶する。このとき、軌跡分析手段15は、タッチスクリーン31上の座標系において、各入力文字画像104に対応する図形(ピッチカーブ103)の座標値に基づき、各文字に対する音高及び音長を算出する。   If the character spacing value is not 0, the display control means 13 displays the input character image 104 in a separated state with a distance corresponding to the character spacing value. Here, “separated” means a state in which a rectangle surrounding one input character image 104 is separated from a rectangle surrounding the input character image 104 adjacent to the input character image 104. That is, the display control unit 13 functioning as the character string display unit 13A changes the position of each character displayed on the touch screen 31 in accordance with a user instruction, and displays each character (see FIG. 7). The trajectory analyzing means 15 analyzes the relationship between the above-described pitch curve and each input character image 104, and calculates the character string sound length, pitch, sound length, and acoustic effect for the input character string as analysis results. Store the result in RAM. At this time, the trajectory analyzing means 15 calculates the pitch and length of each character based on the coordinate value of the figure (pitch curve 103) corresponding to each input character image 104 in the coordinate system on the touch screen 31.

音声レコード生成手段16は、RAMに記憶された、入力文字列、発音レコード、文字間隔制御内容、及び軌跡分析手段15によるピッチカーブの分析結果と、最短発音時間DB22の内容とを入力パラメータとして、音声レコードを生成する処理を行う。この際、音声レコード生成手段16は、入力文字列を構成する各文字に対して、音高、音長、音響効果を割り当てる。音声レコード生成手段16は、生成した音声レコードを、音声DB23に記憶させる。音声合成手段17は、音声レコード生成手段16より処理が完了した旨の通知を受けると、音声DB23に記憶された音声レコードに基づいて音声データを合成し、音声出力部40からこの音声データに基づく音声を出力させる。   The voice record generation means 16 uses the input character string, pronunciation record, character interval control content, pitch curve analysis result by the trajectory analysis means 15 and the content of the shortest pronunciation time DB 22 stored in the RAM as input parameters. Performs processing to generate audio records. At this time, the sound record generating means 16 assigns a pitch, a sound length, and a sound effect to each character constituting the input character string. The voice record generating unit 16 stores the generated voice record in the voice DB 23. When the voice synthesizing unit 17 receives the notification that the processing is completed from the voice record generating unit 16, the voice synthesizing unit 17 synthesizes voice data based on the voice record stored in the voice DB 23, and based on the voice data from the voice output unit 40. Output audio.

上記のように、基準音長特定手段12、文字間隔制御手段14、軌跡分析手段15、及び音声レコード生成手段16が協働することで、表示されている文字列を構成する各文字に対応する図形であるピッチカーブの座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て手段18として機能する。   As described above, the reference sound length specifying unit 12, the character interval control unit 14, the trajectory analyzing unit 15, and the voice record generating unit 16 cooperate to correspond to each character constituting the displayed character string. Based on the coordinate value of the pitch curve which is a figure, it functions as an assigning means 18 for assigning a pitch and a tone length to each character.

<動作>
次に、図7及び図8を参照しながら音声合成装置100の動作について説明を行う。
図7は、音声合成装置100の外観及び表示内容を表す図であり、図8は、音声合成装置100の処理フロー図である。
図7に示すように、音声合成装置100は、筐体110、タッチスクリーン31、及びスピーカ111を有する。筐体110にはタッチスクリーン31及びスピーカ111が設けられている。タッチスクリーン31には、テキストボックス101、発音基準線102、ピッチカーブ103、入力文字画像104、再生ボタン画像105、戻るボタン画像106、及び割り当て文字画像109が表示される。図7に示されたピッチカーブ103が表示される領域において、X軸(第1軸)は時間を表しており、X軸において負方向から正方向に向かって時間が経過する。また、図7に示されたピッチカーブ103が表示される領域において、Y軸(第2軸)は音高を表しており、正方向に向かう程高い音となり、負方向に向かう程低い音となる。本実施形態においては、Y軸における最小の座標値と最大の座標値との間には、1オクターブの音高が割り当てられているものとする。
<Operation>
Next, the operation of the speech synthesizer 100 will be described with reference to FIGS.
FIG. 7 is a diagram illustrating the appearance and display contents of the speech synthesizer 100, and FIG. 8 is a process flow diagram of the speech synthesizer 100.
As illustrated in FIG. 7, the speech synthesizer 100 includes a housing 110, a touch screen 31, and a speaker 111. The housing 110 is provided with a touch screen 31 and a speaker 111. On the touch screen 31, a text box 101, a pronunciation reference line 102, a pitch curve 103, an input character image 104, a play button image 105, a return button image 106, and an assigned character image 109 are displayed. In the region where the pitch curve 103 shown in FIG. 7 is displayed, the X axis (first axis) represents time, and time passes from the negative direction to the positive direction on the X axis. In the area where the pitch curve 103 shown in FIG. 7 is displayed, the Y axis (second axis) represents the pitch, and the higher the sound is in the positive direction, the lower the sound is in the negative direction. Become. In the present embodiment, it is assumed that a pitch of one octave is assigned between the minimum coordinate value and the maximum coordinate value on the Y axis.

テキストボックス101は、文字列が入力される領域である。利用者が、タッチスクリーン31においてテキストボックス101に該当する領域を触れると、タッチスクリーン31にキーボード画像が表示される。利用者は、このキーボード画像に触れることでテキストボックス101に文字列を入力する。発音基準線102は、入力された文字列が発音される際の音高の基準を直線で表したものである。例えば、利用者が発音基準線102をなぞるようにしてタッチスクリーン31に触れると、発音基準線102に対して予め定められた音高(例えば440Hz)に従って、入力文字列の発音がなされる。ピッチカーブ103は、上述したように、入力文字列に対する文字列音長、音高、音長、及び音響効果を決定するものである。利用者によってタッチスクリーン31に描かれた図形が、ピッチカーブ103としてタッチスクリーン31に表示される。   The text box 101 is an area where a character string is input. When the user touches an area corresponding to the text box 101 on the touch screen 31, a keyboard image is displayed on the touch screen 31. The user inputs a character string into the text box 101 by touching the keyboard image. The pronunciation reference line 102 is a straight line representing the reference of the pitch when the input character string is pronounced. For example, when the user touches the touch screen 31 so as to trace the pronunciation reference line 102, the input character string is pronounced according to a predetermined pitch (eg, 440 Hz) with respect to the pronunciation reference line 102. As described above, the pitch curve 103 determines the character string tone length, pitch, tone length, and acoustic effect for the input character string. A figure drawn on the touch screen 31 by the user is displayed on the touch screen 31 as the pitch curve 103.

入力文字画像104は、上述したとおりである。また、上述したように、利用者がタッチスクリーン31上で入力文字画像104をドラッグすることにより、各入力文字画像104の表示位置を変更し、これらを結合及び分離させることが可能である。隣り合う2つの入力文字画像104が結合された場合、これらの入力文字画像104に対応する2つの文字のうち、先に入力された文字の音長は最短発音時間となる。一方、隣り合う2つの入力文字画像104が分離された場合、これらの入力文字画像104に対応する2つの文字のうち、先に入力された文字の音長は上記の結合時よりも長くなる。つまり、音を延ばした状態で発音がなされる。なお、入力文字画像104は、その表示位置が、ピッチカーブ103の直下(Y軸負方向)に、ピッチカーブ103の横幅(X軸方向の長さ)に沿った状態で表示される。ここで、利用者が、入力文字列を変更することなく新たにピッチカーブ103を描き直した場合、表示制御手段13は、各入力文字画像104同士のX軸における間隔の比を保ったまま、新たなピッチカーブ103の横幅に沿うように、表示位置を変更して入力文字画像104を表示させる。   The input character image 104 is as described above. Further, as described above, when the user drags the input character image 104 on the touch screen 31, the display position of each input character image 104 can be changed, and these can be combined and separated. When two adjacent input character images 104 are combined, the sound length of the previously input character among the two characters corresponding to these input character images 104 is the shortest pronunciation time. On the other hand, when two adjacent input character images 104 are separated, the sound length of the previously input character among the two characters corresponding to these input character images 104 is longer than that at the time of the above combination. That is, the pronunciation is made with the sound extended. The input character image 104 is displayed in a state where the display position is directly below the pitch curve 103 (Y-axis negative direction) and along the horizontal width (length in the X-axis direction) of the pitch curve 103. Here, when the user newly redraws the pitch curve 103 without changing the input character string, the display control means 13 newly maintains the ratio of the intervals between the input character images 104 on the X axis. The input character image 104 is displayed by changing the display position along the horizontal width of the pitch curve 103.

利用者が再生ボタン画像105に触れると、入力文字列が、入力されたピッチカーブ103に従ってスピーカ111から発音される。利用者が、戻るボタン画像106に触れると、タッチスクリーン31には入力文字ライブラリがツリー状に表示される。入力文字ライブラリとは、利用者が入力した文字列と、この文字列に対して入力されたピッチカーブ103との組み合わせを複数含むものである。利用者が戻るボタン画像106に触れると、例えば「こんにちは」、「こんばんは」、「おやすみなさい」といった複数の文字列がツリー状に表示される。利用者が、タッチスクリーン31を介して、表示された複数の文字列のうちいずれかを選択すると、選択された文字列について図7のような画面がタッチスクリーン31に表示される。   When the user touches the play button image 105, the input character string is pronounced from the speaker 111 according to the input pitch curve 103. When the user touches the return button image 106, the input character library is displayed in a tree shape on the touch screen 31. The input character library includes a plurality of combinations of a character string input by the user and the pitch curve 103 input to the character string. When the touch of a button image 106 the user returns, for example, "Hello", "Good evening", a plurality of character strings such as "Good night" is displayed in a tree-like. When the user selects any one of the displayed character strings via the touch screen 31, a screen as shown in FIG. 7 is displayed on the touch screen 31 for the selected character string.

割り当て文字画像109は、入力文字画像104に対して、音高を表すY軸方向における高さを反映させたものである。図7に表されるように、割り当て文字画像109の各々は、X軸方向における表示位置については、対応する各々の入力文字画像104と同一であり、Y軸方向における表示位置については、ピッチカーブ103と、各入力文字画像104を囲む矩形の中心から発音基準線102に対してY軸正方向に延びる垂線との交差点の直下となる。ここで、利用者が、入力文字列を変更することなく新たにピッチカーブ103を描き直した場合、表示制御手段13は、各割り当て文字画像109同士のX軸における間隔の比を保ったまま、新たなピッチカーブ103の横幅(X軸方向の長さ)に沿うように、各割り当て文字画像109のX軸方向の表示位置を変更するとともに、新たなピッチカーブ103のY軸方向の高さに応じて、各割り当て文字画像109のY軸方向の表示位置を変更して表示させる。   The assigned character image 109 is a reflection of the height in the Y-axis direction representing the pitch of the input character image 104. As shown in FIG. 7, each of the assigned character images 109 has the same display position in the X-axis direction as the corresponding input character image 104, and the display position in the Y-axis direction has a pitch curve. 103 and immediately below the intersection of the perpendicular line extending in the positive direction of the Y axis with respect to the pronunciation reference line 102 from the center of the rectangle surrounding each input character image 104. Here, when the user newly redraws the pitch curve 103 without changing the input character string, the display control means 13 newly maintains the ratio of the intervals between the assigned character images 109 on the X axis. The display position in the X-axis direction of each assigned character image 109 is changed so as to follow the horizontal width (length in the X-axis direction) of the pitch curve 103, and the new pitch curve 103 is adapted to the height in the Y-axis direction. Thus, the display position of each assigned character image 109 in the Y-axis direction is changed and displayed.

図8において、利用者が、テキストボックス101に文字列を入力すると(ステップS1;YES)、文字列取得手段11は、入力文字列をRAMに記憶させる(ステップS2)。例えば、図7に表されるように、利用者が、テキストボックス101に「こんにちは」という文字列を入力すると、文字列取得手段11は、「こんにちは」という入力文字列をRAMに記憶させる。次に基準音長特定手段12が、上記の入力文字列を用いて発音辞書DB21を検索し、該当する発音レコードを特定して、特定した発音レコードをRAMに記憶させる(ステップS3)。ここでは、基準音長特定手段12は、「こんにちは」という文字列を用いて、図2に表される発音辞書DB21を検索した結果、識別IDが「000002」の発音レコードをRAMに記憶させる。   In FIG. 8, when the user inputs a character string into the text box 101 (step S1; YES), the character string acquisition unit 11 stores the input character string in the RAM (step S2). For example, as represented in FIG. 7, when the user inputs a character string "Hello" in the text box 101, a character string obtaining means 11 stores the input character string "Hello" to the RAM. Next, the reference sound length specifying means 12 searches the pronunciation dictionary DB 21 using the input character string, specifies the corresponding pronunciation record, and stores the specified pronunciation record in the RAM (step S3). Here, the reference tone duration specifying means 12 uses the string "Hello", the result of searching the pronunciation dictionary DB21 represented in Figure 2, the identification ID is to store the sound record "000002" to the RAM.

次に、表示制御手段13が、上記の入力文字列(ここでは「こんにちは」)に基づいて、タッチスクリーン31上に入力文字画像104を表示させる(ステップS4)。この際、表示制御手段13は、RAMに記憶された発音レコードにおける基準割り当て音長に基づいた態様で入力文字列を表示させる。具体的に説明すると、図2に表されるように、「こんにちは」という文字列に対して、「こ」、「に」、「ち」、及び「は」の各文字には「0.2秒」の発音時間が割り当てられ、「ん」という文字には「0.1秒」の発音時間が割り当てられている。ここで、前述したように、これらの0.2秒とか0.1秒という数値は、文字列を構成する各文字の発音時間の比を意味しているから、表示制御手段13は、隣り合う入力文字画像104を、この発音時間の比に応じた距離だけ分離させてタッチスクリーン31に表示させる。この結果、入力文字画像104の表示態様は図7に表すようなものとなる。なお、入力文字列に該当する文字列が発音辞書DB21に存在せず、この入力文字列に関する発音レコードがRAMに記憶されていない場合、表示制御手段13は、当該入力文字列を構成する文字を表す入力文字画像104を等間隔で表示させる。   Next, the display control means 13 (here "Hello") above the input string based on, and displays an input character image 104 on the touch screen 31 (step S4). At this time, the display control means 13 displays the input character string in a manner based on the reference assigned sound length in the pronunciation record stored in the RAM. Specifically, as represented in FIG. 2, for the character string "Hello", "this", "the", "Chi", and the respective character "ha", "0.2 The pronunciation time of "second" is assigned, and the pronunciation time of "0.1 second" is assigned to the character "n". Here, as described above, these numerical values of 0.2 seconds or 0.1 seconds mean the ratio of the pronunciation time of each character constituting the character string, so the display control means 13 are adjacent to each other. The input character image 104 is displayed on the touch screen 31 by being separated by a distance corresponding to the ratio of the pronunciation time. As a result, the display mode of the input character image 104 is as shown in FIG. If the character string corresponding to the input character string does not exist in the pronunciation dictionary DB 21 and the pronunciation record related to the input character string is not stored in the RAM, the display control means 13 displays the characters constituting the input character string. The displayed input character image 104 is displayed at equal intervals.

次に、文字間隔制御手段14が、利用者の操作によって入力文字画像104の表示位置が変更されると、各入力文字画像104の間隔を制御し、文字間隔制御内容をRAMに記憶するとともに、表示制御手段13に対して文字間隔制御内容を入力し、入力文字画像104の表示態様を制御させる(ステップS5)。   Next, when the display position of the input character image 104 is changed by the user's operation, the character interval control unit 14 controls the interval of each input character image 104 and stores the character interval control content in the RAM. The character spacing control content is input to the display control means 13 to control the display mode of the input character image 104 (step S5).

図9は、文字間隔制御処理を説明するための模式図である。
図9を用いてステップS5の詳細を説明する。利用者が、矩形が破線で表された「ん」という入力文字画像104を、矩形が実線で表された位置へ向かってドラッグした場合、以下のような処理が行われる。文字間隔制御手段14は、「ん」という入力文字画像104と「に」という入力文字画像104との間の距離βを文字間隔値として算出すると、算出した文字間隔値をRAMに記憶させるとともに表示制御手段13に入力する。表示制御手段13は、入力された文字間隔値に基づいて、「ん」という入力文字画像104の表示位置を変更する。つまり表示制御手段13は、「ん」という入力文字画像104について、その表示位置を、矩形が破線であらわされた位置から、矩形が実線で表された位置に変更する。この結果、図9においては、入力文字画像104の表示位置が変更された結果、「こ」と「ん」という入力文字画像104が結合されており、「に」、「ち」及び「は」という入力文字画像104とは、分離されている。
FIG. 9 is a schematic diagram for explaining the character spacing control process.
Details of step S5 will be described with reference to FIG. When the user drags the input character image “n” whose rectangle is represented by a broken line toward the position where the rectangle is represented by a solid line, the following processing is performed. When the distance β between the input character image 104 “n” and the input character image 104 “ni” is calculated as the character interval value, the character interval control means 14 stores the calculated character interval value in the RAM and displays it. Input to the control means 13. The display control means 13 changes the display position of the input character image 104 “n” based on the input character interval value. That is, the display control means 13 changes the display position of the input character image 104 “n” from the position where the rectangle is represented by a broken line to the position where the rectangle is represented by a solid line. As a result, in FIG. 9, as a result of the display position of the input character image 104 being changed, the input character images 104 “ko” and “n” are combined, and “ni”, “chi”, and “ha” are combined. The input character image 104 is separated.

そして、音声レコード生成手段16によって、入力文字「ん」に対して音長が割り当てられる際には、距離βに応じた音長が算出されることで、変更前の距離γに応じた音長と比較して、長い音長が割り当てられる。結果として入力文字「ん」の発音が為される場合には、「んーーー」というように、延ばされた音として発音されることとなる。また、文字列全体の音長は文字列音長として定められているから、入力文字「ん」に対して算出される音長が長く変更されると、その分だけ、入力文字「こ」に対して算出される音長は、結合される前と比較して短いものとなる。ここで、入力文字「こ」に割り当てられる音長は、最短発音時間DB22における文字「こ」に該当する最短発音時間として記憶された時間の長さよりも短くなることは無い。つまり、音声レコード生成手段16は、文字列を構成する各文字に対し、最短発音時間記憶手段である最短発音時間DB22に記憶されている最短の音長以上の音長を割り当てる。   When the sound record generation means 16 assigns a sound length to the input character “n”, the sound length corresponding to the distance γ before the change is calculated by calculating the sound length corresponding to the distance β. In comparison with, a longer sound length is assigned. As a result, when the input character “n” is pronounced, it is pronounced as an extended sound, such as “n-oo”. Also, since the length of the entire character string is defined as the character string sound length, if the sound length calculated for the input character “n” is changed to a longer length, the input character “ko” is correspondingly changed. On the other hand, the calculated sound length is shorter than before being combined. Here, the sound length assigned to the input character “ko” is never shorter than the length of time stored as the shortest pronunciation time corresponding to the character “ko” in the shortest pronunciation time DB 22. That is, the sound record generating means 16 assigns a sound length equal to or longer than the shortest sound length stored in the shortest pronunciation time DB 22 which is the shortest pronunciation time storage means to each character constituting the character string.

ステップS5の次に、利用者が再生ボタン画像105に触れることがなく(ステップS6;NO)、さらに、利用者がタッチスクリーン31に図形を描くことが無い、すなわちピッチカーブ103が入力されなかった場合(ステップS7;NO)、処理がステップS4に戻り、上記の処理が繰り返される。   After step S5, the user does not touch the play button image 105 (step S6; NO), and the user does not draw a figure on the touch screen 31, that is, the pitch curve 103 is not input. In the case (step S7; NO), the process returns to step S4, and the above process is repeated.

一方、ステップS5の次に、利用者が再生ボタン画像105に触れることがなく(ステップS6;NO)、さらに、利用者が、タッチスクリーン31に図形を描いた場合、すなわちピッチカーブ103が入力された場合(ステップS7;YES)、軌跡分析手段15は、入力されたピッチカーブ103を分析する(ステップS9)。具体的には、ステップS9において軌跡分析手段15は、入力されたピッチカーブ103と各入力文字画像との関係を分析して、入力文字列に対する文字列音長と、この入力文字列を構成する各文字に対する音高、音長、及び音響効果とを特定し、これらをRAMに記憶する。   On the other hand, after step S5, the user does not touch the play button image 105 (step S6; NO), and the user draws a figure on the touch screen 31, that is, the pitch curve 103 is input. In the case (step S7; YES), the trajectory analyzing means 15 analyzes the input pitch curve 103 (step S9). Specifically, in step S9, the trajectory analyzing means 15 analyzes the relationship between the input pitch curve 103 and each input character image, and constructs a character string sound length for the input character string and this input character string. The pitch, length, and sound effect for each character are specified and stored in the RAM.

ステップS9の処理を更に詳細に説明する。まず、軌跡分析手段15は、ピッチカーブ103が入力された際の利用者の指先の移動速度(つまりピッチカーブ103の始端から終端に至るまでの入力に要した時間)に応じて、文字列全体の発音時に割り当てる音長である文字列音長を算出する。利用者がタッチスクリーン31上に図形を描いた際の速度が速ければ文字列音長は時間が短いものとなり、軌跡を描いた際の速度が遅ければ文字列音長は時間が長いものとなる。例えば軌跡分析手段15が、ピッチカーブ103の描画速度から文字列音長を3秒と分析し、これが入力文字列に割り当てられると、文字列全体が3秒の長さで発音されることとなる。つまり、図7の例では、「こんにちは」という文字列が3秒の長さで発音されることとなる。   The process of step S9 will be described in further detail. First, the trajectory analysis means 15 determines the entire character string according to the moving speed of the user's fingertip when the pitch curve 103 is input (that is, the time required for input from the beginning to the end of the pitch curve 103). A character string sound length that is a sound length to be assigned at the time of pronunciation is calculated. If the user draws a figure on the touch screen 31 at a high speed, the character string sound length is short. If the user draws a locus at a low speed, the character string sound length is long. . For example, when the trajectory analyzing means 15 analyzes the character string sound length as 3 seconds from the drawing speed of the pitch curve 103 and assigns it to the input character string, the entire character string is pronounced with a length of 3 seconds. . That is, in the example of FIG. 7, so that the character string "Hello" is pronounced by the length of 3 seconds.

次に、軌跡分析手段15は、入力文字列の各文字の音高を求める。具体的には、まず、軌跡分析手段15は、ピッチカーブ103が入力される領域において、各入力文字画像104を囲む矩形の中心から発音基準線102に対してY軸正方向に延びる垂線(入力文字線という)を仮想的に描く。そして、軌跡分析手段15は、発音基準線102に割り当てられた音高を基準とし、ピッチカーブ103と入力文字線との交差点のY座標値に応じて、入力文字列を構成する各文字の音高を算出する。つまり、上述した交差点のY座標値が、発音基準線102のY座標値より大きければ、その交差点に対する入力文字の音高は、発音基準線102に割り当てられたものよりも高いものとなる。一方、交差点のY座標値が、発音基準線102のY座標値より小さければ、その交差点に対する入力文字の音高は、発音基準線102に割り当てられたものよりも低いものとなる。   Next, the trajectory analyzing means 15 obtains the pitch of each character of the input character string. Specifically, first, the trajectory analyzing means 15 is a perpendicular line (input) extending in the positive direction of the Y axis with respect to the pronunciation reference line 102 from the center of the rectangle surrounding each input character image 104 in the area where the pitch curve 103 is input. A character line) is virtually drawn. The trajectory analyzing means 15 then uses the pitch assigned to the pronunciation reference line 102 as a reference, and the sound of each character constituting the input character string according to the Y coordinate value of the intersection of the pitch curve 103 and the input character line. Calculate the high. That is, if the above-described Y coordinate value of the intersection is larger than the Y coordinate value of the pronunciation reference line 102, the pitch of the input character at the intersection is higher than that assigned to the pronunciation reference line 102. On the other hand, if the Y coordinate value of the intersection is smaller than the Y coordinate value of the pronunciation reference line 102, the pitch of the input character at the intersection is lower than that assigned to the pronunciation reference line 102.

次に、軌跡分析手段15は、入力文字列の各文字の音長を求める。具体的には、軌跡分析手段15は、文字列音長における時間の長さを1として、RAMに記録された発音レコードにおける基準割り当て音長を正規化することにより、各文字に割り当てる音長の比率を算出する。   Next, the trajectory analyzing means 15 obtains the sound length of each character of the input character string. Specifically, the trajectory analyzing means 15 normalizes the reference assigned sound length in the pronunciation record recorded in the RAM, assuming that the time length in the character string sound length is 1, and thereby the sound length assigned to each character. Calculate the ratio.

ここで、図9を用いてステップS9の詳細を説明する。図9においては、タッチスクリーン31を拡大して表しており、表示内容の一部を説明の都合上省略している。また、図9において、入力文字線107が表されているが、実際にはこれはタッチスクリーン31に表示されない。交差点A,B,C,D,及びEは、各入力文字線107とピッチカーブ103とが交差する交差点であり、X座標値とY座標値とを各々保持している。例えば軌跡分析手段15が「こ」という入力文字の音高を算出する際には、交差点AのY座標値が、発音基準線102のY座標値より小さいため、軌跡分析手段15は、発音基準線102のY座標値から、交差点AのY座標値を減算することで、差分長αを求める。そして軌跡分析手段15は、発音基準線102のY座標値を基準として、発音基準線102における音高(例えばここでは440Hz)よりも差文長αに相当する音高だけ低い音高を、入力文字「こ」に対して算出する。   Here, the details of step S9 will be described with reference to FIG. In FIG. 9, the touch screen 31 is shown in an enlarged manner, and a part of the display content is omitted for convenience of explanation. In FIG. 9, an input character line 107 is shown. However, this is not actually displayed on the touch screen 31. Intersections A, B, C, D, and E are intersections where each input character line 107 and pitch curve 103 intersect, and hold X coordinate values and Y coordinate values, respectively. For example, when the trajectory analyzing unit 15 calculates the pitch of the input character “KO”, the trajectory analyzing unit 15 determines the pronunciation reference because the Y coordinate value of the intersection A is smaller than the Y coordinate value of the pronunciation reference line 102. The difference length α is obtained by subtracting the Y coordinate value of the intersection A from the Y coordinate value of the line 102. The trajectory analyzing means 15 inputs a pitch that is lower than the pitch (for example, 440 Hz in this case) on the pronunciation reference line 102 by a pitch corresponding to the difference sentence length α with reference to the Y coordinate value of the pronunciation reference line 102. Calculate for the character “ko”.

一方、例えば軌跡分析手段15が「に」という入力文字の音高を算出する際には、交差点CにおけるY座標値が、発音基準線102のY座標値より大きいため、軌跡分析手段15は、交差点CのY座標値から、発音基準線102のY座標値を減算することで、差分長α’を求める。そして軌跡分析手段15は、発音基準線102のY座標値を基準として、発音基準線102における音高よりも差文長α’に相当する音高だけ高い音高を入力文字「に」に対して算出する。   On the other hand, for example, when the trajectory analyzing unit 15 calculates the pitch of the input character “ni”, the Y coordinate value at the intersection C is larger than the Y coordinate value of the pronunciation reference line 102, so the trajectory analyzing unit 15 The difference length α ′ is obtained by subtracting the Y coordinate value of the pronunciation reference line 102 from the Y coordinate value of the intersection C. Then, the trajectory analyzing means 15 uses the Y coordinate value of the pronunciation reference line 102 as a reference and outputs a pitch higher than the pitch on the pronunciation reference line 102 by a pitch corresponding to the difference sentence length α ′ to the input character “ni”. To calculate.

次に、文字列を構成する各文字の音長については、前述したように、文字列音長と発音辞書DB21の内容に基づく各文字の音長の比とに従って決められる。例えば、図7の例に戻ると、入力文字列が「こんにちは」であり、文字列音長が「3秒」であり、各文字の音長は、図2に示されるように、文字「こ」、「に」、「ち」及び「は」については「0.2秒」、文字「ん」については「0.1秒」である。従って、軌跡分析手段15は、文字列音長の「3秒」を基準として正規化を行うことにより、文字「こ」、「に」、「ち」及び「は」については「0.67秒」の音長を、文字「ん」については「0.33秒」の音長を割り当てる(小数点以下第三位を四捨五入)。ここで、四捨五入する位は、設計において適宜変更されてもよい。このように、軌跡分析手段15は、図形の始端から終端に至るまでの入力に要した時間に基づいて、文字列の全体を発音するときの音長である文字列音長を算出し、算出した文字列音長と、上記文字列を構成する各文字について発音辞書記憶手段に記憶されている比とに基づいて、各文字に音長を割り当てる。   Next, as described above, the sound length of each character constituting the character string is determined according to the character string sound length and the ratio of the sound length of each character based on the contents of the pronunciation dictionary DB 21. For example, returning to the example of FIG. 7, an input character string is "Hello", a character string tone length is "3 seconds", the sound length of each character, as shown in FIG. 2, the character "ko "," "Ni", "chi" and "ha" are "0.2 seconds", and the character "n" is "0.1 seconds". Accordingly, the trajectory analyzing means 15 normalizes the character string sound length “3 seconds” as a reference, so that the characters “ko”, “ni”, “chi” and “ha” are “0.67 seconds”. Is assigned the length of "0.33 seconds" for the character "n" (rounded to the second decimal place). Here, the rounding position may be changed as appropriate in the design. Thus, the trajectory analyzing means 15 calculates the character string sound length, which is the sound length when the entire character string is pronounced, based on the time required for the input from the beginning to the end of the figure. Based on the character string sound length and the ratio stored in the pronunciation dictionary storage means for each character constituting the character string, a sound length is assigned to each character.

ここで、利用者によって図7から図9のように入力文字画像104「ん」の表示位置が変更されていたとすると、軌跡分析手段15は、表示位置が変更された後の入力文字画像104「ん」についての交差点BにおけるX座標値を取得する。また、軌跡分析手段15は、入力文字画像104「ん」に対してX軸正方向で隣り合う入力文字画像104「に」についての交差点CにおけるX座標値を取得する。そして軌跡分析手段15は、交差点Bに対応するX座標値から交差点Cに対応するX座標値を減算することで、交差点Bと交差点CとにおけるX座標値の差分を算出する。軌跡分析手段15は、算出したX座標値の差分に基づいて、入力文字「ん」に対して、その表示位置が変更される前よりも長い音長を割り当てる。これにより、上述したように、入力文字「ん」は、延ばされた音として発音されることとなる。一方、ピッチカーブ103が変更されない限り、文字列音長は入力済みのピッチカーブ103に基づく文字列音長を維持するから、入力文字「ん」の音長が長く変更されることに従って、入力文字「こ」の音長は短く変更される。ここで入力文字「こ」に割り当てられる音長は、入力文字「ん」について、変更前よりも長くなった音長の分だけ、短いものとなる。また、ここにおいて、入力文字「こ」には、少なくとも、最短発音時間DB22に記憶された、文字「こ」に対応する最短発音時間が割り当てられる。   Here, assuming that the display position of the input character image 104 “n” has been changed by the user as shown in FIGS. 7 to 9, the trajectory analyzing means 15 will input the input character image 104 “after the display position has been changed. X coordinate value at the intersection B for "" is acquired. Further, the trajectory analyzing means 15 acquires the X coordinate value at the intersection C for the input character image 104 “ni” adjacent to the input character image 104 “n” in the positive X-axis direction. Then, the trajectory analysis unit 15 calculates the difference between the X coordinate values at the intersection B and the intersection C by subtracting the X coordinate value corresponding to the intersection C from the X coordinate value corresponding to the intersection B. The trajectory analyzing means 15 assigns a longer sound length to the input character “n” than before the display position is changed based on the calculated difference of the X coordinate values. As a result, as described above, the input character “n” is pronounced as an extended sound. On the other hand, as long as the pitch curve 103 is not changed, the character string sound length maintains the character string sound length based on the pitch curve 103 that has already been input. The sound length of “ko” is changed to be shorter. Here, the sound length assigned to the input character “ko” is shorter by the length of the input character “n” that is longer than before the change. Here, at least the shortest pronunciation time corresponding to the character “ko” stored in the shortest pronunciation time DB 22 is assigned to the input character “ko”.

また、既に描かれたピッチカーブ103に対して、利用者が既に描いた図形(ピッチカーブ)に重ね合わされる位置に他の図形を描くと、軌跡分析手段15が、複数の図形の形状を記憶する音響効果DB24から、重ね合わせられるようにして描かれた図形に対して、予め定められた閾値以上の類似度を持つ音響効果図形を特定する。そして、軌跡分析手段15は、特定した音響効果図形に対応付けられた音響効果の種類を、重ね合わせられた図形のY座標値に対応する位置に表示されている文字に対する音響効果の種類としてRAMに記憶する。ここで、図形どうしの類似度を求める方法は、既知の方法を用いればよい。また、この際、表示制御手段13は、入力済のピッチカーブ103に対して利用者が重ね合わせて描いた図形を、タッチスクリーン31に表示する。   Further, when another figure is drawn on the already drawn pitch curve 103 at a position superimposed on the figure (pitch curve) already drawn by the user, the trajectory analyzing means 15 stores the shapes of the plurality of figures. From the acoustic effect DB 24, an acoustic effect graphic having a similarity equal to or higher than a predetermined threshold is specified for the graphic drawn so as to be superimposed. Then, the trajectory analyzing unit 15 stores the type of the acoustic effect associated with the identified acoustic effect graphic as the type of acoustic effect for the character displayed at the position corresponding to the Y coordinate value of the superimposed graphic. To remember. Here, a known method may be used as a method of obtaining the similarity between figures. At this time, the display control means 13 displays on the touch screen 31 a graphic drawn by the user so as to be superimposed on the input pitch curve 103.

ステップS9の次に、図形表示手段13Bとして機能する表示制御手段13は、ピッチカーブ103を入力文字画像104に対応付けた状態でタッチスクリーン31に表示させる(ステップS10)。次に、音声レコード生成手段16は、RAMに記憶された、入力文字列、発音レコード、文字間隔制御内容、及びピッチカーブ103の分析結果と最短発音時間DB22とに基づいて、入力文字列を構成する各文字に、音高、音長、及び音響効果を割り当てることで音声レコードを生成し、生成した音声レコードを音声DB23に登録する(ステップS11)。この際、音声レコード生成手段16は、各文字に割り当てる音長の比率に基づいて、文字列全体における音長が文字列音長と同一になるように、各文字に音長を割り当てる。ここで、前述したように、各文字に割り当てられる音長は、最短発音時間DB22において該当する文字の最短発音時間として記憶された時間の長さよりも短くなることは無い。なお、入力文字列を構成する全ての文字に対して最短発音時間が割り当てられた場合の合計時間と比較して、算出された文字列音長が上記合計時間に満たない場合、音声レコード生成手段16は、各文字における最短発音時間を、文字の入力順に従って先頭から積算していく。そして、音声レコード生成手段16は、この積算の結果が、算出された文字列音長を越えた時点で、以降の文字を発音対象とせず、音長を割り当てない。   After step S9, the display control unit 13 functioning as the graphic display unit 13B displays the pitch curve 103 on the touch screen 31 in a state of being associated with the input character image 104 (step S10). Next, the voice record generating means 16 constructs the input character string based on the input character string, the pronunciation record, the character interval control content, the analysis result of the pitch curve 103 and the shortest pronunciation time DB 22 stored in the RAM. A sound record is generated by assigning a pitch, a sound length, and a sound effect to each character to be performed, and the generated sound record is registered in the sound DB 23 (step S11). At this time, the voice record generating means 16 assigns a sound length to each character so that the sound length in the entire character string is the same as the character string sound length based on the ratio of the sound length assigned to each character. Here, as described above, the sound length assigned to each character does not become shorter than the length of time stored as the shortest pronunciation time of the corresponding character in the shortest pronunciation time DB 22. When the calculated character string sound length is less than the total time compared to the total time when the shortest pronunciation time is assigned to all the characters constituting the input character string, the voice record generating means 16 accumulates the shortest pronunciation time of each character from the top in accordance with the input order of the characters. Then, when the result of this integration exceeds the calculated character string sound length, the voice record generation means 16 does not set the subsequent characters as sounding targets and assigns no sound length.

そして、音声合成手段17が、音声DB23に記憶された音声レコードの内容に基づき、音声データを合成する(ステップS12)。つまり、音声合成手段17は、文字列を構成する各文字を、割り当て手段18によって割り当てられた音高及び音長で発音させる音声データを合成する。音声合成手段17は、音声データを合成する際に、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とを、ピッチベンドによって繋ぐ処理を施す。また、音声合成手段17は、該当する文字について、割り当てられた音響効果を反映した状態で音声データを合成する。音声出力部40は、この音声データに基づいて音声を出力する(ステップS13)。   Then, the voice synthesizer 17 synthesizes voice data based on the contents of the voice record stored in the voice DB 23 (step S12). That is, the voice synthesizing unit 17 synthesizes voice data that causes each character constituting the character string to be pronounced with the pitch and the tone length assigned by the assigning unit 18. When synthesizing voice data, the voice synthesizing unit 17 performs a process of connecting a pitch assigned to a certain character and a pitch assigned to a character inputted next to the character by pitch bend. The voice synthesizer 17 synthesizes voice data for the corresponding character in a state in which the assigned acoustic effect is reflected. The audio output unit 40 outputs audio based on the audio data (step S13).

一方、ステップS5の後に、利用者が再生ボタン画像105に触れた場合(ステップS6;YES)、すなわちピッチカーブ103が入力されていない(ステップS9〜S11を経ない)場合、音声レコード生成手段16は、RAMに記憶された入力文字列を音声DB23に登録する。そして音声レコード生成手段16は、RAMに記憶された発音レコードにおける基準割り当て音長に従って、音声DB23における項目「音長」を更新するとともに、発音基準線102と同一の音高で、音声DB23における項目「音高」を更新する(ステップS8)。例えば、図7の例では入力文字列が「こんにちは」であるため、音声レコード生成手段16は、音声DB23における項目「音長」について、図2に示される内容に従って、文字「こ」、「に」、「ち」及び「は」については「0.2秒」、文字「ん」については「0.1秒」という数値で更新する。また、例えば、図7の例では発音基準線102の音高が「440Hz」であるため、音声レコード生成手段16は、「こ」、「ん」、「に」、「ち」、及び「は」における項目「音高」について「440Hz」で更新する。その後、処理はステップS12に移行する。   On the other hand, when the user touches the play button image 105 after step S5 (step S6; YES), that is, when the pitch curve 103 is not input (steps S9 to S11 are not passed), the voice record generation means 16 Registers the input character string stored in the RAM in the voice DB 23. Then, the sound record generating means 16 updates the item “sound length” in the sound DB 23 according to the reference assigned sound length in the pronunciation record stored in the RAM, and at the same pitch as the sound generation reference line 102, the item in the sound DB 23. “Pitch” is updated (step S8). For example, since in the example of FIG. 7 the input string is "Hello", the sound record generating unit 16, the item "tone length" in the voice DB 23, in accordance with the contents shown in FIG. 2, the character "ko", "in "," "Chi" and "ha" are updated with numerical values "0.2 seconds", and the character "n" is updated with numerical values "0.1 seconds". Further, for example, in the example of FIG. 7, since the pitch of the pronunciation reference line 102 is “440 Hz”, the voice record generation unit 16 performs “ko”, “n”, “ni”, “chi”, and “ha”. The item “pitch” in “” is updated at “440 Hz”. Thereafter, the process proceeds to step S12.

図10〜図12は、音声合成処理を説明するための模式図である。
なお、音声合成装置100には、ピッチカーブ103が描かれた際の処理を設定するモードである「描画モード」が存在する。「描画モード」には、初期設定で設定されている「上書き描画モード」と、「連続描画モード」とがある。「上書き描画モード」は、タッチパネル31にピッチカーブ103が既に描かれ、表示された状態において、利用者が新たにピッチカーブ103を描くと、既に描かれていたピッチカーブ103が消去され、新たに描かれた際の軌跡に応じてピッチカーブ103が表示されるモードである。一方、「連続描画モード」は、タッチパネル31にピッチカーブ103が既に描かれ、表示された状態において、既に描かれたピッチカーブ103と重ならないタッチパネル31の領域に利用者が新たにピッチカーブ103を描くと、既に描かれていたピッチカーブ103は変更されないまま、新たに描かれた際の軌跡に応じてピッチカーブ103が追加で表示されるモードである。この描画モードは、利用者が、UI部30を通じて適宜変更することが可能である。描画モードは、「上書き描画モード」、及び「連続描画モード」に限らず、他の設定内容を選択可能としてもよい。
10 to 12 are schematic diagrams for explaining the speech synthesis process.
Note that the speech synthesizer 100 has a “drawing mode” that is a mode for setting processing when the pitch curve 103 is drawn. “Drawing mode” includes “overwrite drawing mode” and “continuous drawing mode” set in the initial setting. In the “overwrite drawing mode”, when the pitch curve 103 is already drawn on the touch panel 31 and displayed, when the user newly draws the pitch curve 103, the already drawn pitch curve 103 is erased and newly added. This is a mode in which the pitch curve 103 is displayed according to the trace when drawn. On the other hand, in the “continuous drawing mode”, the pitch curve 103 is already drawn on the touch panel 31 and, when displayed, the user newly sets the pitch curve 103 in an area of the touch panel 31 that does not overlap with the already drawn pitch curve 103. In this mode, the pitch curve 103 that has already been drawn is not changed, and the pitch curve 103 is additionally displayed in accordance with the newly drawn locus. This drawing mode can be appropriately changed by the user through the UI unit 30. The drawing mode is not limited to “overwrite drawing mode” and “continuous drawing mode”, and other setting contents may be selectable.

図10〜図12において、「お」、「は」、「よ」、及び「う」という入力文字画像104が表示されている。図10、及び図11は、描画モードが「連続描画モード」である場合の例である。図10は、入力文字画像群108Aにおいて全ての入力文字画像104が結合された場合を示している。図10では、入力されたピッチカーブ103aに応じて、「おはよう」という音声が出力される。図10において右側に表示されたピッチカーブ103bは、入力文字線と交差しないため、何も処理が行われない。あるいは、このようなピッチカーブ103bは、入力文字列に応じた音声の出力を繰り返すように、UI部30を通じて利用者が設定可能としてもよい。上述した、入力文字列に応じた音声の出力を繰り返す場合、軌跡分析手段15は、入力文字列の繰り返しを意味するフラグを立てた状態(例えば「1」の値)でRAMに記憶する。音声レコード生成手段16は、このフラグを参照し、フラグが入力文字列を繰り返すことを意味する値(ここでは「1」)を取っている場合、登録済みの音声レコードと同一の内容を、音声DB23に追加で登録する。あるいは、音声レコード生成手段16が、予め定められた、入力文字列を繰り返して発音させることを表す記号(例えば「*」)を、音声DB23における項目「入力文字」に対して追加で登録することで、音声合成手段17が、入力文字列が繰り返し発音されるように音声データを合成するようにしてもよい。   10 to 12, input character images 104 of “O”, “Ha”, “Yo”, and “U” are displayed. 10 and 11 show examples when the drawing mode is the “continuous drawing mode”. FIG. 10 shows a case where all the input character images 104 are combined in the input character image group 108A. In FIG. 10, the voice “Good morning” is output according to the input pitch curve 103a. Since the pitch curve 103b displayed on the right side in FIG. 10 does not intersect the input character line, no processing is performed. Alternatively, such a pitch curve 103b may be settable by the user through the UI unit 30 so as to repeat the output of sound according to the input character string. When repeating the above-described voice output according to the input character string, the trajectory analyzing unit 15 stores the flag in the RAM in a state (for example, a value “1”) indicating that the input character string is repeated. The voice record generating means 16 refers to this flag, and when the flag takes a value (in this case, “1”) which means that the input character string is repeated, the same contents as the registered voice record are Register additional to DB23. Alternatively, the voice record generating means 16 additionally registers a predetermined symbol (for example, “*”) indicating that the input character string is repeatedly generated for the item “input character” in the voice DB 23. Thus, the voice synthesizer 17 may synthesize voice data so that the input character string is repeatedly pronounced.

図11では、「お」及び「は」が結合された入力文字画像群108Bと、「よ」及び「う」が結合された入力文字画像群108Cとが分離されている。また、入力文字画像群108Bに対するピッチカーブ103cと、入力文字画像群108Cに対するピッチカーブ103dとは連続しておらず、軌跡が途切れた状態となっている。このような場合、入力されたピッチカーブ103に応じて音声が出力される際には、軌跡の途切れに応じて、「おは□□よう」というように、「おは」という音声と「よう」という音声との間に無音の期間(無音期間という)が生じる(ここで□は無音期間を意味する)。具体的には、軌跡分析手段15は、軌跡が途切れた箇所におけるX軸方向の長さに基づいて、この無音期間の長さを算出する。そして軌跡分析手段15は、算出した無音期間の時間の長さと、無音期間を挟む2つの入力文字(すなわちここでは、「は」と「よ」)とを対応付けて、RAMに記憶する。音声レコード生成手段16は、RAMに記憶されたこの内容に従って、無音期間に相当する音声レコードを生成する。図13は、音声DBの内容を表す図である。ここで、文字順IDが「0003」の音声レコードが、無音期間に該当する音声レコードである。無音期間に該当する音声レコードを区別するには、例えば入力文字としてスペースを割り当ててもよい。図13においては便宜上、スペースを「△」で表している。図13における音声レコードに基づいて音声合成手段17が合成した音声データが、音声として出力される際には、「おは」と発音された後に0.5秒の無音期間が生じ、次いで「よう」と発音されることとなる。   In FIG. 11, an input character image group 108B in which “o” and “ha” are combined and an input character image group 108C in which “yo” and “u” are combined are separated. Further, the pitch curve 103c for the input character image group 108B and the pitch curve 103d for the input character image group 108C are not continuous, and the locus is interrupted. In such a case, when sound is output according to the input pitch curve 103, the sound of “Oha” and “ A silent period (referred to as a silent period) is generated between the voice and the voice (where □ means a silent period). Specifically, the trajectory analyzing means 15 calculates the length of the silent period based on the length in the X-axis direction at the location where the trajectory is interrupted. Then, the trajectory analyzing means 15 associates the calculated length of the silent period with two input characters sandwiching the silent period (that is, “ha” and “yo” here) and stores them in the RAM. The voice record generating means 16 generates a voice record corresponding to the silent period according to the contents stored in the RAM. FIG. 13 is a diagram showing the contents of the voice DB. Here, the voice record whose character order ID is “0003” is a voice record corresponding to the silent period. In order to distinguish audio records corresponding to the silent period, for example, a space may be allocated as an input character. In FIG. 13, the space is represented by “Δ” for convenience. When the voice data synthesized by the voice synthesizer 17 based on the voice record in FIG. 13 is output as voice, a silence period of 0.5 seconds occurs after “Oha” is pronounced. Will be pronounced.

図12は、描画モードが「上書き描画モード」である場合の例である。図12では、「お」及び「は」が結合された入力文字画像群108Dと、「よ」及び「う」が結合された入力文字画像群108Eとが分離されている。また、入力文字画像群108Dに対するピッチカーブ103eと、入力文字画像群108Eに対するピッチカーブ103fとは、途切れずに連続した軌跡を描いている。さらにピッチカーブ103eおよびピッチカーブ103fに対して、ビブラートの音響効果が適用される波型の図形が重ね合わせて描かれている。このように、表示制御手段13は、表示手段であるタッチスクリーン31に表示されている図形(すなわちピッチカーブ103)に対して、重ね合わせる図形が利用者によって指定されると、この重ね合わせる図形をタッチスクリーン31に表示させる。この波型の図形のY座標値は、「お」、「は」、「よ」、「う」のそれぞれの表示位置に対応している。従って、図12では、入力されたピッチカーブ103に応じて、「お〜は〜〜〜よ〜う〜」というように、「は」に対する発音が延ばされた状態で、各文字に対する発音にビブラートがかかった状態で音声が出力される。   FIG. 12 shows an example when the drawing mode is “overwrite drawing mode”. In FIG. 12, an input character image group 108D in which “o” and “ha” are combined and an input character image group 108E in which “yo” and “u” are combined are separated. Further, the pitch curve 103e for the input character image group 108D and the pitch curve 103f for the input character image group 108E draw a continuous locus without interruption. Further, a wave-like figure to which the vibrato acoustic effect is applied is superimposed on the pitch curve 103e and the pitch curve 103f. As described above, when the user designates a graphic to be superimposed on the graphic (that is, the pitch curve 103) displayed on the touch screen 31 that is the display means, the display control unit 13 displays the graphic to be superimposed. It is displayed on the touch screen 31. The Y-coordinate value of this wave-shaped figure corresponds to the display positions of “O”, “Ha”, “Yo”, and “U”. Accordingly, in FIG. 12, according to the input pitch curve 103, the pronunciation for each character is pronounced in a state where the pronunciation for “ha” is extended as “Oh ~~~~~~~~”. Audio is output with vibrato applied.

このように、音声合成装置100によれば、文字列が入力された後に、利用者が軌跡を描くようにタッチスクリーン31に触れることで、文字列に対して音符列の割り当てを容易に行うことが可能となる。   As described above, according to the speech synthesizer 100, after a character string is input, the user touches the touch screen 31 so as to draw a trajectory, thereby easily assigning a note string to the character string. Is possible.

以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。
<変形例1>
実施形態においては、音声合成装置100の例としてタッチスクリーン31を備えたスマートフォンを挙げていたが、これに限ったものではない。音声合成装置100は、タッチスクリーン31を備えていなくてもよい。例えば、音声合成装置100は、UI部30としてマウス、キーパッド、またはペンタブレットを有していてもよい。また、音声合成装置100は、PDA(Personal Digital Assistant)、携帯ゲーム機、携帯音楽プレーヤ、あるいはPC(Personal Computer)であってもよい。音声合成装置100がPCである場合、ディスプレイ上に表示された内容に対して利用者がマウスを用いて描いた結果が、ピッチカーブ103として認識されたり、入力文字画像104に対する間隔制御として認識されたりする。
The above embodiment can be modified as follows. In addition, you may implement the following modifications suitably combining.
<Modification 1>
In the embodiment, a smartphone provided with the touch screen 31 is cited as an example of the speech synthesizer 100, but the present invention is not limited to this. The speech synthesizer 100 may not include the touch screen 31. For example, the speech synthesizer 100 may include a mouse, a keypad, or a pen tablet as the UI unit 30. The voice synthesizer 100 may be a PDA (Personal Digital Assistant), a portable game machine, a portable music player, or a PC (Personal Computer). When the speech synthesizer 100 is a PC, the result drawn by the user using the mouse for the content displayed on the display is recognized as the pitch curve 103 or recognized as the interval control for the input character image 104. Or

<変形例2>
実施形態においては、音響効果の例として、ビブラートを挙げたが、これに限ったものではない。例えば、図9に表されるように、入力済みのピッチカーブ103に対して丸で囲むような軌跡を重ね合わせて描くと、対応する文字の発音がファルセットでなされるようにしてもよい。この他にも、ピッチカーブ103の描き方や重ね合わせて描く図形の形状に応じて、対応する文字に様々な音響効果を割り当てるようにしてもよい。
<Modification 2>
In the embodiment, vibrato is given as an example of the acoustic effect, but the embodiment is not limited to this. For example, as shown in FIG. 9, when a trajectory surrounded by a circle is superimposed on the input pitch curve 103, the corresponding character may be pronounced in a false setting. In addition to this, various acoustic effects may be assigned to the corresponding characters in accordance with how the pitch curve 103 is drawn or the shape of the figure drawn in an overlapping manner.

<変形例3>
実施形態において、ピッチカーブ103は利用者により入力されるものとしていたが、これに限らず、特定の形状を持つ複数のピッチカーブ103をプリセットデータとして記憶部20が記憶していてもよい。例えば、標準語、関西弁、東北弁といった方言の抑揚に対応したピッチカーブ103がプリセットデータとして記憶部20に記憶されている場合、利用者がUI部30を通じて、このプリセットデータから特定のピッチカーブ103を指定できるようにしてもよい。要するに、利用者が、音高を表す第1軸および時間を表す第2軸を有する座標系における図形を指定できればよい。
<Modification 3>
In the embodiment, the pitch curve 103 is input by the user. However, the present invention is not limited to this, and the storage unit 20 may store a plurality of pitch curves 103 having a specific shape as preset data. For example, when a pitch curve 103 corresponding to dialect inflections such as standard language, Kansai dialect, and Tohoku dialect is stored in the storage unit 20 as preset data, the user can select a specific pitch curve from the preset data through the UI unit 30. 103 may be designated. In short, it is only necessary that the user can specify a graphic in the coordinate system having the first axis representing the pitch and the second axis representing the time.

<変形例4>
実施形態においては、Y軸における最小の座標値と最大の座標値との間に、1オクターブの音高が割り当てられているものとしたが、この音高は、これに限ったものではない。例えば、利用者がUI部30を介して設定することにより、Y軸に割り当てられる音高の幅を狭く、あるいは広く、変更することが可能としてもよい。例えば、利用者が、Y軸における最小の座標値と最大の座標値との間に、2オクターブの音高を設定した場合を考える。また、このとき、発音基準線102の音高が「261Hz」であったとする。この場合、発音基準線102の音高を中心として、発音基準線102のY軸正方向には、「261Hz」より1オクターブ高い「523Hz」の音高を持つ仮想的な発音基準線が存在する。また、発音基準線102のY軸負方向には、「261Hz」より1オクターブ低い「130Hz」の音高を持つ仮想的な発音基準線が存在する。実施形態においては、軌跡分析手段15は、常に発音基準線102のY座標値と交差点のY座標値との差分長から、ある入力文字についての音高を算出していた。しかし、上述のように、タッチパネル31に表示される発音基準線102以外に、仮想的な発音基準線が存在する場合は、Y軸方向において交差点と最も近い発音基準線のY座標値を基準として、入力文字の音高を算出するようにしてもよい。
<Modification 4>
In the embodiment, a pitch of one octave is assigned between the minimum coordinate value and the maximum coordinate value on the Y axis, but this pitch is not limited to this. For example, the user may be able to change the pitch range assigned to the Y axis narrower or wider by setting via the UI unit 30. For example, consider a case where the user sets a pitch of 2 octaves between the minimum coordinate value and the maximum coordinate value on the Y axis. At this time, it is assumed that the pitch of the pronunciation reference line 102 is “261 Hz”. In this case, a virtual pronunciation reference line having a pitch of “523 Hz” that is one octave higher than “261 Hz” exists in the positive Y-axis direction of the pronunciation reference line 102 with the pitch of the pronunciation reference line 102 as the center. . Further, in the negative Y-axis direction of the sound generation reference line 102, there is a virtual sound generation reference line having a pitch of “130 Hz” that is one octave lower than “261 Hz”. In the embodiment, the trajectory analyzing means 15 always calculates the pitch for a certain input character from the difference length between the Y coordinate value of the pronunciation reference line 102 and the Y coordinate value of the intersection. However, as described above, when there is a virtual pronunciation reference line other than the pronunciation reference line 102 displayed on the touch panel 31, the Y coordinate value of the pronunciation reference line closest to the intersection in the Y-axis direction is used as a reference. The pitch of the input character may be calculated.

<変形例5>
実施形態においては、入力文字画像104に対して利用者がドラッグの操作を行うことで、各入力文字画像104を結合及び分離させることを可能としたが、入力文字画像104に対する操作は、これに限ったものではない。例えば、利用者が、或る入力文字画像104の右辺あるいは左辺に触れて、これをドラッグすることにより、この入力文字画像104がX軸方向において表示される長さ(入力文字画像104の横幅)を変更可能としてもよい。この場合、音声レコード生成手段16は、変更された入力文字画像104の横幅に応じて、横幅が長いほど長い音長を、横幅が短いほど短い音長を、該当する文字に割り当てる。
<Modification 5>
In the embodiment, the user can perform a drag operation on the input character image 104 so that the input character images 104 can be combined and separated. It is not limited. For example, when the user touches and drags the right side or the left side of a certain input character image 104, the length that the input character image 104 is displayed in the X-axis direction (width of the input character image 104) May be changeable. In this case, the voice record generating means 16 assigns a longer sound length to the corresponding character as the width is longer and a shorter sound length as the width is shorter, according to the changed width of the input character image 104.

<変形例6>
実施形態においては、音声合成手段17は、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とを、ピッチベンドによって繋ぐ処理を施していたが、これに限ったものではない。例えば、音声合成手段は、ピッチベンドを施さずに、音声DB23に記憶された、各文字に割り当てられた音高のみに従って音声データを合成するようにしてもよい。
<Modification 6>
In the embodiment, the voice synthesizing unit 17 performs a process of connecting the pitch assigned to a certain character and the pitch assigned to the character input next to this character by pitch bend. It is not limited to this. For example, the voice synthesizing unit may synthesize voice data according to only the pitch assigned to each character stored in the voice DB 23 without performing pitch bend.

<変形例7>
実施形態においては、入力文字列を構成する全ての文字に対して最短発音時間が割り当てられた場合の合計時間と比較して、算出された文字列音長が上記合計時間に満たない場合、軌跡分析手段15は、各文字における最短発音時間を、入力された順序に従って先頭から積算した。そして、軌跡分析手段15は、この積算の結果が、算出された文字列音長を越えた時点で、以降の文字を発音対象としないような制御を行っていた。これに限らず、軌跡分析手段15は、上述の合計時間に満たないような速度でピッチカーブ103が入力された場合、タッチスクリーン31に表示するピッチカーブ103における軌跡の長さを予め制限するようにしてもよい。
<Modification 7>
In the embodiment, when the calculated character string sound length is less than the total time compared to the total time when the shortest pronunciation time is assigned to all the characters constituting the input character string, the trajectory The analysis means 15 integrated the shortest pronunciation time in each character from the top in accordance with the input order. The trajectory analyzing means 15 performs control so that subsequent characters are not subjected to pronunciation when the result of the integration exceeds the calculated character string sound length. Not only this but the locus | trajectory analysis means 15 restrict | limits the length of the locus | trajectory in the pitch curve 103 displayed on the touch screen 31 beforehand, when the pitch curve 103 is input at the speed which does not satisfy the above-mentioned total time. It may be.

<変形例8>
また、利用者が音高を直感的に分かるように、タッチパネル31を正面から見た場合の左側に鍵盤の画像を表示しても良い。
<Modification 8>
Further, a keyboard image may be displayed on the left side when the touch panel 31 is viewed from the front so that the user can intuitively understand the pitch.

<変形例9>
実施形態においては、利用者が、入力済みのピッチカーブ103に対してさらに別の図形を重ねて描くと、この別の図形に応じた音響効果が発音時に適用されるようになっていたが、これを以下のようにしてもよい。音声合成装置100は、入力済みのピッチカーブ103に対して利用者が別の図形を重ねて描く際の処理のモードを表す「追加入力モード」を記憶部20に記憶する。「追加入力モード」には、「音響効果モード」と「音符列変更モード」が存在する。「音響効果モード」は、実施形態において説明したとおりであって、上述した、重ねて描かれた別の図形に応じた音響効果が、該当する入力文字の発音に際して適用される。「音符列変更モード」では、利用者が、入力済みのピッチカーブ103における特定の箇所に触れてドラッグすると、表示制御手段13が、ピッチカーブ103の該当する箇所について、ドラッグの内容に応じて表示態様を変更する。例えば、利用者が、ピッチカーブ103の特定の箇所に触れて、Y軸正方向にドラッグすると、ピッチカーブ103における該当の箇所の座標値がY軸正方向に移動するとともに、ピッチカーブ103における該当の箇所の周辺についての表示態様が、この移動に伴ってY軸正方向に曲線を描くように表示される。また、利用者がピッチカーブ103の特定の箇所に触れて、Y軸負方向にドラッグすると、ピッチカーブ103における該当の箇所の座標値がY軸負方向に移動するとともに、ピッチカーブ103における該当の箇所の周辺についての表示態様が、この移動に伴ってY軸負方向に曲線を描くように表示される。利用者は、UI部30を通じて、「追加入力モード」を適宜変更することが可能である。そして、軌跡分析手段15は、該当する箇所の変更後の座標値に従って、この座標値に対応する入力文字に割り当てられる音高及び音長を算出し、音声レコード生成手段16は、算出された結果に基づいて該当する入力文字に音高及び音長を割り当てる。
<Modification 9>
In the embodiment, when the user draws another figure on the pitch curve 103 that has already been input, the acoustic effect corresponding to the other figure is applied during pronunciation. This may be as follows. The speech synthesizer 100 stores in the storage unit 20 an “additional input mode” that represents a processing mode when the user draws another graphic on the input pitch curve 103. The “additional input mode” includes a “sound effect mode” and a “note string change mode”. The “acoustic effect mode” is as described in the embodiment, and the above-described acoustic effect according to another figure drawn in an overlapping manner is applied when the corresponding input character is pronounced. In the “musical note change mode”, when the user touches and drags a specific part of the input pitch curve 103, the display control unit 13 displays the corresponding part of the pitch curve 103 according to the content of the drag. Change the aspect. For example, when the user touches a specific part of the pitch curve 103 and drags in the positive direction of the Y axis, the coordinate value of the corresponding part in the pitch curve 103 moves in the positive direction of the Y axis and the corresponding value in the pitch curve 103. The display mode for the periphery of the point is displayed so as to draw a curve in the positive direction of the Y-axis with this movement. When the user touches a specific part of the pitch curve 103 and drags in the negative Y-axis direction, the coordinate value of the corresponding part in the pitch curve 103 moves in the negative Y-axis direction and The display mode for the periphery of the location is displayed so as to draw a curve in the negative Y-axis direction with this movement. The user can appropriately change the “additional input mode” through the UI unit 30. Then, the trajectory analyzing means 15 calculates the pitch and the sound length assigned to the input character corresponding to the coordinate value according to the changed coordinate value of the corresponding part, and the voice record generating means 16 calculates the calculated result. The pitch and pitch are assigned to the corresponding input characters based on the above.

<変形例10>
実施形態においては、ピッチカーブ103と入力文字線107との交差する座標値に従って、各々の文字の音高及び音長が算出されていたが、発音に際しての音声情報はこれに限ったものではない。例えば、ピッチカーブ103の形状がX軸に対して平坦な箇所には、より多くの文字が発音対象となるように、また、ピッチカーブ103の形状がX軸に対して急峻な箇所には、より少ない文字が発音対象となるように、各々の文字の発音開始位置が算出されてもよい。具体的には、以下のとおりである。
<Modification 10>
In the embodiment, the pitch and the length of each character are calculated according to the coordinate value at which the pitch curve 103 and the input character line 107 intersect, but the sound information at the time of pronunciation is not limited to this. . For example, in a place where the shape of the pitch curve 103 is flat with respect to the X axis, more characters are to be pronounced, and in a place where the shape of the pitch curve 103 is steep with respect to the X axis, The pronunciation start position of each character may be calculated so that fewer characters are to be pronounced. Specifically, it is as follows.

図14は、変形例10を説明するための模式図である。
図14は、タッチパネル31の一部を拡大したものである。図14における入力文字「こ」を例に挙げると、軌跡分析手段15は、交差点Aにおけるピッチカーブ103に対する接線L1aの傾きを算出すると、さらにこの傾きの絶対値を算出してRAMに記憶させる。ここで、矩形が破線で表された「こ」という入力文字画像104a、破線で表された入力文字線107a、及び交差点Aは、変形例9における処理によって表示位置が変更される前の状態を表している。軌跡分析手段15は、他の入力文字「ん」についても、上述した、傾きの絶対値を算出する。ここで、交差点における傾きの絶対値が大きいほど、その交差点において、ピッチカーブ103が急峻、つまりそのピッチカーブの形状がX軸に対して直交した状態に近いことを表している。一方、傾きの絶対値が小さいほど、その交差点において、ピッチカーブ103が平坦、つまりそのピッチカーブの形状がX軸に対して平行に近いことを表している。
FIG. 14 is a schematic diagram for explaining the tenth modification.
FIG. 14 is an enlarged view of a part of the touch panel 31. Taking the input character “ko” in FIG. 14 as an example, when calculating the inclination of the tangent L1a with respect to the pitch curve 103 at the intersection A, the trajectory analyzing means 15 further calculates the absolute value of this inclination and stores it in the RAM. Here, the input character image 104a “ko” whose rectangle is represented by a broken line, the input character line 107a represented by a broken line, and the intersection A are in a state before the display position is changed by the processing in the modification 9. Represents. The trajectory analyzing means 15 calculates the absolute value of the inclination described above for the other input characters “n”. Here, as the absolute value of the slope at the intersection is larger, the pitch curve 103 is steeper at the intersection, that is, the shape of the pitch curve is closer to a state orthogonal to the X axis. On the other hand, the smaller the absolute value of the slope, the flatter the pitch curve 103 at the intersection, that is, the shape of the pitch curve is almost parallel to the X axis.

そして軌跡分析手段15は、傾きの絶対値が予め定められた閾値を超える場合には、該当する入力文字画像の座標値を基準として、X軸における正方向あるいは負方向のいずれかにおいて、接線の傾きの絶対値が上述の閾値以下となる直近の座標値を求め、この求められた座標値におけるX軸が取る値を、該当する入力文字の発音開始位置として算出する。一方、傾きの絶対値が予め定められた閾値を超えない場合には、軌跡分析手段15は、入力文字線107とピッチカーブ103との交差点における座標値におけるX軸が取る値を、該当する入力文字の発音開始位置として算出する。つまり、接線の傾きの絶対値が閾値に向かって大きくなる箇所、すなわちピッチカーブ103が急峻な箇所には、入力文字の発音開始位置が割り当てられない可能性が高くなる。結果として、上述した急峻な箇所では、ピッチカーブ103が平坦な箇所と比較して、より少ない文字が発音対象とされることになる。   When the absolute value of the inclination exceeds a predetermined threshold value, the trajectory analyzing unit 15 uses the coordinate value of the corresponding input character image as a reference, and determines whether the tangent line is in the positive direction or the negative direction on the X axis. The most recent coordinate value at which the absolute value of the inclination is equal to or less than the above threshold is obtained, and the value taken by the X axis in the obtained coordinate value is calculated as the pronunciation start position of the corresponding input character. On the other hand, if the absolute value of the inclination does not exceed a predetermined threshold value, the trajectory analyzing means 15 uses the value taken by the X axis at the coordinate value at the intersection of the input character line 107 and the pitch curve 103 as the corresponding input. Calculated as the character's pronunciation start position. That is, there is a high possibility that the pronunciation start position of the input character is not assigned to a location where the absolute value of the tangential slope increases toward the threshold, that is, a location where the pitch curve 103 is steep. As a result, in the steep portion described above, fewer characters are targeted for pronunciation compared to the portion where the pitch curve 103 is flat.

例えば、図14において、交差点Aにおける接線L1aの傾きの絶対値が、上述した閾値を超えるため、「こ」という入力画像文字104aの発音開始位置が、X軸において負方向に移動した位置(すなわち時間軸において前方の位置)となる。具体的には、交差点A’において接線L1a’の傾きの絶対値が閾値以下となるため、軌跡分析手段15は、入力文字表示画像104aを、入力文字画像104a’の表示位置まで移動させる。そして、入力文字「ん」の発音開始位置が、交差点Bにおける座標値におけるX軸が取る値と同一に算出された場合、入力文字「ん」に対して、入力文字「こ」が時間軸において前方へ移動するため、入力文字「こ」に割り当てられる音長が、移動前と比較して長いものとなる。   For example, in FIG. 14, since the absolute value of the slope of the tangent L1a at the intersection A exceeds the above-described threshold, the pronunciation start position of the input image character 104a “ko” has moved in the negative direction on the X axis (ie, Forward position on the time axis). Specifically, since the absolute value of the slope of the tangent L1a 'is equal to or less than the threshold value at the intersection A', the trajectory analyzing unit 15 moves the input character display image 104a to the display position of the input character image 104a '. When the pronunciation start position of the input character “n” is calculated to be the same as the value taken by the X axis in the coordinate value at the intersection B, the input character “ko” is on the time axis with respect to the input character “n”. Since it moves forward, the sound length assigned to the input character “ko” is longer than before the movement.

<変形例11>
実施形態では、軌跡分析手段15が、ピッチカーブ103の始端から終端に至るまでの入力に要した時間に応じて、文字列全体の発音時に割り当てる音長である文字列音長を算出していたが、文字列音長の算出方法はこれに限らない。軌跡分析手段15は、ピッチカーブ103の始端から終端に至るまでのそのピッチカーブ103上の距離や、ピッチカーブ103の始端のX座標値と終端のX座標値との差の大きさに基づいて文字列音長を算出してもよい。例えば、ピッチカーブ103の始端から終端に至るまでのそのピッチカーブ103上の距離が大きいほど文字列音長も大きくなったり、ピッチカーブ103の始端のX座標値と終端のX座標値との差が大きいほど文字列音長も大きくなるといった具合である。このように、文字列音長の算出方法には種々のものがあるが、文字列を構成する各文字の音長の算出に関しては、軌跡分析手段15は各文字に対応する図形(ピッチカーブ)の座標値に基づき音高及び音長を算出する。
<Modification 11>
In the embodiment, the trajectory analyzing unit 15 calculates a character string sound length that is a sound length to be assigned at the time of pronunciation of the entire character string, according to the time required for the input from the start end to the end of the pitch curve 103. However, the method for calculating the character string sound length is not limited to this. The trajectory analyzing means 15 is based on the distance on the pitch curve 103 from the start end to the end of the pitch curve 103 and the magnitude of the difference between the X coordinate value at the start end and the end X coordinate value of the pitch curve 103. The character string sound length may be calculated. For example, the longer the distance on the pitch curve 103 from the start end to the end of the pitch curve 103, the longer the character string sound length, or the difference between the X coordinate value at the start end and the end X coordinate value of the pitch curve 103. The larger the is, the longer the character string sound length is. As described above, there are various methods for calculating the character string sound length. Regarding the calculation of the sound length of each character constituting the character string, the trajectory analyzing means 15 uses a figure (pitch curve) corresponding to each character. The pitch and length are calculated based on the coordinate values.

<変形例12>
実施形態においては、音声合成手段17が音声データを合成する際に、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とを、ピッチベンドによって繋ぐ処理を施していたが、これに限らず、割り当て手段18が、補正機能と称するものを実現することで、入力文字の各々に、上記補正機能によって定まる所定の音階に従った音高を割り当てるようにしてもよい。また、割り当て手段18は、入力文字の各々に、上記補正機能によって定まる所定の時間の長さに従った音長を割り当てるようにしてもよい。つまり、割り当て手段18が実現する補正機能には、音高に対する補正機能と、音長に対する補正機能とがある。
<Modification 12>
In the embodiment, when the speech synthesizer 17 synthesizes speech data, the pitch assigned to a certain character and the pitch assigned to the character input next to this character are connected by pitch bend. Although the processing has been performed, the present invention is not limited to this, and the assigning means 18 realizes what is called a correction function so that a pitch according to a predetermined scale determined by the correction function is assigned to each input character. It may be. The assigning means 18 may assign a sound length according to a predetermined length of time determined by the correction function to each input character. In other words, the correction function realized by the assigning means 18 includes a correction function for pitch and a correction function for pitch.

図15(a)及び図15(b)は、音高に対する補正機能を説明する模式図である。
図15(a)及び図15(b)においては、タッチスクリーン31上に、メニューボタン画像112が表示されている。利用者がメニューボタン画像112に触れると、制御部10が、タッチスクリーン31に、利用者が実行可能な機能の選択肢(機能選択肢という)をリスト形式で表示する。利用者が、表示された機能選択肢から望みのものを選択すると、制御部10は、選択された機能を実行する。ここで、タッチスクリーン31に表示される機能選択肢には、制御部10によって実現される、「音高の補正」及び「音長の補正」が含まれており、利用者は、両者の機能について「ON/OFF」を設定することで、これらの機能を実現するか否かを選択することができる。
FIGS. 15A and 15B are schematic diagrams for explaining a correction function for pitch.
In FIG. 15A and FIG. 15B, the menu button image 112 is displayed on the touch screen 31. When the user touches the menu button image 112, the control unit 10 displays function options executable by the user (referred to as function options) on the touch screen 31 in a list format. When the user selects a desired function from the displayed function options, the control unit 10 executes the selected function. Here, the function options displayed on the touch screen 31 include “pitch correction” and “pitch correction” realized by the control unit 10. By setting “ON / OFF”, it is possible to select whether or not to realize these functions.

図15(a)は、音高に対して補正が行われる前の表示状態を表しており、「こんにちは」という入力文字列に対して、傾斜したピッチカーブ103が入力されている様子を例示している。この状態で利用者が再生ボタン画像105に触れると、実施形態で説明したように、入力文字列における隣り合う文字同士がピッチベンドによって繋げられた音声データが合成される。図15(a)の状態において、利用者が機能選択肢における「音高の補正」を「ON」に設定すると、割り当て手段18が音高に対する補正を行った結果、図15(b)のような表示状態となる。図15(b)において、タッチスクリーン31には、表示制御手段13によって、音高を表すピアノロールを模した横縞模様の画像が、背景画像として表示されている。ここで、黒色の横縞画像は黒鍵を表し、白色の横縞画像は白鍵を表す。また、各横縞画像には、割り当て手段18によって、ピッチ方向(Y軸方向)における縦幅及び時間軸方向(X軸方向)における横幅の全域にわたり、1つの音高が割り当てられている。これらの各横縞画像は、割り当て手段18が入力文字列104を構成する各文字に音高を割り当てるときの指標となる。   FIG. 15 (a), is corrected for pitch represents a display state before that takes place, for the input character string "Hello", the pitch curve 103 slope illustrates a state in which the input ing. When the user touches the play button image 105 in this state, as described in the embodiment, voice data in which adjacent characters in the input character string are connected by pitch bend is synthesized. In the state of FIG. 15A, when the user sets “pitch correction” in the function option to “ON”, the assigning means 18 performs correction on the pitch, and as a result, as shown in FIG. Display state. In FIG. 15B, an image having a horizontal stripe pattern imitating a piano roll representing a pitch is displayed on the touch screen 31 as a background image by the display control means 13. Here, the black horizontal stripe image represents a black key, and the white horizontal stripe image represents a white key. In addition, one pitch is assigned to each horizontal stripe image by the assigning unit 18 over the entire width in the pitch direction (Y-axis direction) and the horizontal width in the time-axis direction (X-axis direction). Each of these horizontal stripe images serves as an index when the assigning means 18 assigns a pitch to each character constituting the input character string 104.

このとき、割り当て手段18は、図15(a)において、ピッチカーブ103において入力文字画像104の各々に対応する位置に応じて割り当てた音高を、ピアノの音階においてその音高に最も近い音高に変更する。つまり、割り当て手段18は、指標に相当する横縞画像に従って、ピッチカーブ103において入力文字画像104を構成する各文字に対応する位置の座標値を補正し、その補正後の座標値に基づき、各文字に音高を割り当てる。これに伴い、表示制御手段13は、割り当て文字画像109の各々が、ピッチ方向において最も近い横縞画像と重なる位置に表示されるように、表示位置の制御を行う。例えば図15(b)の例では、Y軸において最も下方に表示された白鍵の横縞画像を「C3」とすると、「こ」という割り当て文字画像109には「D#3」の音高が割り当てられ、「に」という割り当て文字画像109には「G3」の音高が割り当てられるといった具合である。表示制御手段13は、このように割り当て文字画像109の表示位置を制御するとともに、ピッチカーブ103の表示態様も変更する。具体的には、図15(b)で表されるように、表示制御手段13は、ピッチカーブ103を、各割り当て文字画像109及び横縞画像の位置に従って階段状に表示する。すなわち、表示制御手段13は、利用者によって指定されたピッチカーブ103において各割り当て文字画像109に対応する位置の座標値を、指標に相当する横縞画像に従って変更し、座標値が変更されたピッチカーブ103を表示させることになる。これにより、各々の文字が、割り当てられた音高で割り当てられた音長の期間だけ発音されることとなる。   At this time, in FIG. 15A, the assigning means 18 assigns the pitch assigned according to the position corresponding to each of the input character images 104 in the pitch curve 103 to the pitch closest to the pitch in the piano scale. Change to That is, the assigning means 18 corrects the coordinate value of the position corresponding to each character constituting the input character image 104 in the pitch curve 103 according to the horizontal stripe image corresponding to the index, and based on the corrected coordinate value, each character. Assign a pitch to. Accordingly, the display control means 13 controls the display position so that each of the assigned character images 109 is displayed at a position that overlaps the horizontal stripe image that is closest in the pitch direction. For example, in the example of FIG. 15B, if the horizontal stripe image of the white key displayed at the bottom on the Y axis is “C3”, the assigned character image 109 “ko” has a pitch of “D # 3”. The pitch of “G3” is assigned to the assigned character image 109 “NI”. The display control means 13 controls the display position of the assigned character image 109 as described above, and also changes the display mode of the pitch curve 103. Specifically, as shown in FIG. 15B, the display control unit 13 displays the pitch curve 103 in a stepped manner according to the positions of the assigned character images 109 and the horizontal stripe images. That is, the display control means 13 changes the coordinate value of the position corresponding to each assigned character image 109 in the pitch curve 103 designated by the user according to the horizontal stripe image corresponding to the index, and the pitch curve whose coordinate value has been changed. 103 is displayed. As a result, each character is pronounced for the duration of the assigned tone length at the assigned pitch.

また、図15(b)の状態において、利用者が或る割り当て文字画像109を指定してピッチ方向(Y軸方向)に引きずるように移動(ピッチ方向へのいわゆる「ドラッグ」)させると、表示制御手段13は、この割り当て文字画像109を、ピッチ方向においてドラッグの終点と最も近い横縞画像に重なるように表示する制御を行う。表示制御手段13は、この制御に伴って、ピッチカーブ103の形状もピッチ方向へとその形状を変更する。この結果、当該割り当て文字画像109には、割り当て手段18により上記横縞画像に相当する音高が割り当てられる。つまり、割り当て手段18は、指標に相当する横縞画像に従って、ピッチカーブ103において割り当て文字画像109を構成する各文字に対応する位置の座標値を補正し、その補正後の座標値に基づき、各文字に音高を割り当てる。   In the state of FIG. 15B, when the user designates a certain assigned character image 109 and moves it so as to drag it in the pitch direction (Y-axis direction) (so-called “drag” in the pitch direction), The control means 13 performs control to display the assigned character image 109 so as to overlap the horizontal stripe image closest to the drag end point in the pitch direction. With this control, the display control means 13 changes the shape of the pitch curve 103 in the pitch direction. As a result, a pitch corresponding to the horizontal stripe image is assigned to the assigned character image 109 by the assigning means 18. That is, the assigning means 18 corrects the coordinate value of the position corresponding to each character constituting the assigned character image 109 in the pitch curve 103 according to the horizontal stripe image corresponding to the index, and based on the corrected coordinate value, each character. Assign a pitch to.

また、予め定められた閾値を超える速度でピッチカーブ103が入力されると、制御部10は、そのような速度で入力された範囲のピッチカーブ103においては補正を行わない。つまり、上記範囲については、実施形態と同様に、割り当て手段18によって、或る文字に割り当てられた音高と、この文字の次に入力された文字に割り当てられた音高とが、ピッチベンドによって繋がれる処理が施される。なお、上記処理は、入力済みのピッチカーブ103における特定の箇所を、予め定められた閾値を超える速度で、利用者が変形例9で上述したようにドラッグすることで変更した場合についても同様である。   When the pitch curve 103 is input at a speed exceeding a predetermined threshold, the control unit 10 does not correct the pitch curve 103 in the range input at such speed. That is, in the above range, as in the embodiment, the pitch assigned to a certain character by the assigning means 18 and the pitch assigned to the character input next to this character are connected by pitch bend. Processing is performed. The above processing is the same when the user changes a specific portion of the input pitch curve 103 by dragging as described above in Modification 9 at a speed exceeding a predetermined threshold. is there.

なお、表示制御手段13及び割り当て手段18は、「音高の補正」が「ON」に設定されると同時に、既に表示されている割り当て文字画像109及びピッチカーブ103に対して上述の処理を行ってもよいし、「音高の補正」が「ON」に設定された後から入力された割り当て文字画像109及びピッチカーブ103に対してのみ上述の処理を行ってもよい。このような上述の処理を行うタイミングは、音声合成装置100において予め定められていてもよいし、タッチスクリーン31を介して利用者により変更可能としてもよい。   The display control means 13 and the assignment means 18 perform the above-described processing on the assigned character image 109 and the pitch curve 103 that are already displayed at the same time that “pitch correction” is set to “ON”. Alternatively, the above-described processing may be performed only for the assigned character image 109 and the pitch curve 103 that are input after “pitch correction” is set to “ON”. The timing for performing the above-described processing may be predetermined in the speech synthesizer 100 or may be changeable by the user via the touch screen 31.

図16(a)及び図16(b)は、音長に対する補正機能を説明する模式図である。
図16(a)及び図16(b)は、利用者が、機能選択肢における「音長の補正」を「ON」に設定した状態を表している。「音長の補正」が「ON」に設定されると、表示制御手段13によって、タッチスクリーン31のY軸正方向における上部に時間軸目盛り113が表示される。時間軸目盛り113は、X軸正方向に向かうにつれて経過する時間を表している。図16の例では、時間軸目盛り113における1つ分の目盛りが0.1秒を表しているが、この1つ分の目盛りには、0.1秒以外の所定長の時間が対応付けられていてもよいし、小節や拍が対応付けられていてもよい。なお、小節や拍が対応付けられる場合、利用者がタッチスクリーン31を介して、拍子について「4拍子」や「3/4拍子」といった設定を行えるようにしてもよい。この時間軸目盛り113は、割り当て手段18が入力文字列104を構成する各文字に音長を割り当てるときの指標となる。
FIGS. 16A and 16B are schematic diagrams for explaining a correction function for the sound length.
FIGS. 16A and 16B show a state in which the user has set “sound length correction” in the function options to “ON”. When “sound length correction” is set to “ON”, the display control means 13 displays the time axis scale 113 on the upper part of the touch screen 31 in the positive Y-axis direction. The time axis scale 113 represents the time that elapses in the positive direction of the X axis. In the example of FIG. 16, one scale on the time axis scale 113 represents 0.1 seconds, but a time of a predetermined length other than 0.1 seconds is associated with this one scale. Or a measure or a beat may be associated. When measures and beats are associated with each other, the user may be able to make settings such as “4 beats” and “3/4 beats” for the beats via the touch screen 31. The time axis scale 113 serves as an index when the assigning unit 18 assigns a sound length to each character constituting the input character string 104.

図16(a)において、利用者が、「ち」という割り当て文字画像109を指定して、D1に示されるような軌跡でドラッグを行うと、このドラッグの軌跡(ドラッグ軌跡という)に応じて、表示制御手段13は、割り当て文字画像109の表示位置を変更して表示させる。ドラッグ軌跡D1では、「ち」という割り当て文字画像109が、「に」という割り当て文字画像109に近づくようにドラッグされている。従って、表示制御手段13は、「ち」という割り当て文字画像109の表示位置を、図16(b)で示される表示位置に変更して表示させる。このとき、割り当て文字画像109の表示位置は、時間軸目盛り113の1単位(つまり1つ分の各目盛り)に応じた位置に規制される。つまり、割り当て文字画像109の表示位置が、或る時間軸目盛り113とそれに隣り合う時間軸目盛り113との間にある場合には、近いほうの時間軸目盛り113の位置に変更される。この表示位置の変更に伴って、割り当て手段18は、「に」という割り当て文字画像109に割り当てる音長を短くするとともに、「ち」という割り当て文字画像109に割り当てる音長を長くする。つまり、割り当て手段18は、指標に相当する時間軸目盛り113に従って、ピッチカーブ103において割り当て文字画像109を構成する各文字に対応する位置の座標値を補正し、その補正後の座標値に基づき、各文字に音長を割り当てる。これに伴い、表示制御手段13は、入力文字画像104の表示位置を変更して表示させる。また、利用者が、入力文字画像104を表す矩形の左端(あるいは右端)を指定してドラッグを行うと、割り当て手段18によって上記入力文字画像104に割り当てられる音長が変更される。例えば図16(b)において、利用者がドラッグ軌跡D2で表される軌跡でドラッグを行うと、割り当て手段18は、「こ」という入力文字画像104に割り当てる音長を短くするとともに、「ん」という入力文字画像104に割り当てる音長を長くする。これに伴い、表示制御手段13は、割り当て文字画像109の表示位置を変更して表示させる。   In FIG. 16A, when the user designates the assigned character image 109 “Chi” and drags along the trajectory as shown in D1, according to the drag trajectory (referred to as drag trajectory), The display control means 13 changes the display position of the assigned character image 109 and displays it. In the drag locus D1, the assigned character image 109 “CHI” is dragged so as to approach the assigned character image 109 “NI”. Accordingly, the display control means 13 changes the display position of the assigned character image 109 “CHI” to the display position shown in FIG. At this time, the display position of the assigned character image 109 is restricted to a position corresponding to one unit of the time axis scale 113 (that is, one scale for each scale). That is, when the display position of the assigned character image 109 is between a certain time axis scale 113 and the adjacent time axis scale 113, it is changed to the position of the closer time axis scale 113. Along with the change of the display position, the assigning unit 18 shortens the sound length assigned to the assigned character image 109 “NI” and lengthens the sound length assigned to the assigned character image 109 “CHI”. That is, the assigning means 18 corrects the coordinate value of the position corresponding to each character constituting the assigned character image 109 in the pitch curve 103 according to the time axis scale 113 corresponding to the index, and based on the corrected coordinate value, Assign a note length to each character. Accordingly, the display control means 13 changes the display position of the input character image 104 and displays it. When the user specifies and drags the left end (or right end) of the rectangle representing the input character image 104, the sound length assigned to the input character image 104 is changed by the assigning means 18. For example, in FIG. 16B, when the user performs dragging along the trajectory represented by the drag trajectory D2, the assigning means 18 shortens the sound length assigned to the input character image 104 “ko” and “n”. The sound length assigned to the input character image 104 is increased. Accordingly, the display control means 13 changes the display position of the assigned character image 109 and displays it.

なお、便宜上、「音高の補正」と「音長の補正」とを、それぞれ別の図面を用いて、個別の機能として説明したが、両者の機能は、制御部10によって同時に並列で実行されてもよい。また、表示制御手段13が、ピアノロールを模した背景画像を時間軸方向(X軸方向)の全域に渡って表示することに代えて、タッチスクリーン31の左端にのみピアノロールを模した背景画像を表示するようにしてもよい。以上述べた変形例12によれば、利用者が、文字列に対して直感的に音符列の割り当てを行うことが可能となる。   For convenience, “pitch correction” and “pitch correction” have been described as separate functions using different drawings. However, both functions are executed in parallel by the control unit 10 in parallel. May be. Further, instead of displaying the background image simulating the piano roll over the entire area in the time axis direction (X-axis direction), the display control means 13 instead of displaying the background image simulating the piano roll only on the left end of the touch screen 31. May be displayed. According to the modified example 12 described above, a user can intuitively assign a note string to a character string.

<変形例13>
実施形態においては、文字列を構成する各文字の、発音時間の比を含む複数の発音レコードからなる発音辞書DB21を記憶部20が備えており、割り当て手段18が、文字列音長と発音レコードとに基づいて各文字に割り当てる音長を決定していたが、これに限らず、発音辞書DB21に代えて、発音レコードが各文字についての発音時間の絶対値を含むような初期値発音辞書DBを、記憶部20が備えるようにしてもよい。
<Modification 13>
In the embodiment, the storage unit 20 includes a pronunciation dictionary DB 21 composed of a plurality of pronunciation records including the pronunciation time ratio of each character constituting the character string, and the assigning means 18 includes the character string sound length and the pronunciation record. However, the present invention is not limited to this, and instead of the pronunciation dictionary DB 21, an initial value pronunciation dictionary DB in which the pronunciation record includes the absolute value of the pronunciation time for each character is determined. May be included in the storage unit 20.

図17は、初期値発音辞書DBの内容を表す図である。
初期値発音辞書DBに含まれる各発音レコードは、識別ID、文字、初期値発音時間といった複数の項目からなる。識別IDは、各発音レコードを一意に識別するためのIDであり、例えば4桁の数字からなる。文字は、発音の対象となる文字として予め決められた1文字である。初期値発音時間は、各発音レコードにおける各文字について、予め割り当てられた発音時間の初期値である。初期値発音時間においては、実験的に求められた、該当する文字が自然な抑揚で発音された場合に掛かる時間の長さに基づいて、各文字における音長の初期値が予め決定されている。例えば図17において、文字「あ」、「い」、「う」及び「え」という文字について、初期値として「0.3秒」という長さの発音時間が予め割り当てられている。
FIG. 17 is a diagram showing the contents of the initial value pronunciation dictionary DB.
Each pronunciation record included in the initial value pronunciation dictionary DB includes a plurality of items such as an identification ID, a character, and an initial value pronunciation time. The identification ID is an ID for uniquely identifying each pronunciation record, and is composed of, for example, a 4-digit number. The character is one character that is predetermined as a character to be pronounced. The initial value sounding time is an initial value of the sounding time allocated in advance for each character in each sounding record. In the initial value pronunciation time, the initial value of the sound length of each character is determined in advance based on the length of time that is required when the corresponding character is pronounced with natural inflection, obtained experimentally. . For example, in FIG. 17, for the characters “A”, “I”, “U”, and “E”, a pronunciation time of “0.3 seconds” is assigned in advance as an initial value.

図18(a)及び図18(b)は、変形例13に係る、音声合成装置100の表示内容を表す図である。
図18(a)は、利用者がテキストボックス101に文字列を入力した直後であって、利用者によってピッチカーブ103が入力されていない状態を表している。図18(a)においては、「あたま」という文字列が入力されており、「あ」、「た」及び「ま」という各文字に対して、割り当て手段18によって、初期値発音辞書DBの発音レコードに基づいて、同一の長さの初期値発音時間が音長として割り当てられている。また、図18(a)においては、入力文字画像104のX軸方向における横幅と、発音基準線102のY軸方向における位置に基づいて、表示制御手段13によってデフォルトのピッチカーブ103が表示されている。
18A and 18B are diagrams illustrating display contents of the speech synthesizer 100 according to the modification 13.
FIG. 18A shows a state immediately after the user inputs a character string in the text box 101 and the pitch curve 103 is not input by the user. In FIG. 18 (a), the character string “Atama” is input, and for each character “A”, “TA” and “MA”, the assigning means 18 stores the character string in the initial value pronunciation dictionary DB. Based on the pronunciation record, an initial value pronunciation time of the same length is assigned as a sound length. In FIG. 18A, the default pitch curve 103 is displayed by the display control means 13 based on the horizontal width of the input character image 104 in the X-axis direction and the position of the pronunciation reference line 102 in the Y-axis direction. Yes.

図18(b)は、図18(a)の状態から、利用者がピッチカーブ103を入力した状態を表している。図18(b)においては、ピッチカーブ103の形状に従って、入力文字画像104の各々について、表示制御手段13によって、ピッチ方向(Y軸方向)における表示位置が変更されている。ここで、入力文字画像104の各々には、初期値発音時間が既に割り当てられているから、実施形態のように、ピッチカーブ103の形状に従って、割り当て手段18によって文字列音長と発音時間の比を含む複数の発音レコードとに基づいた音長が、各入力文字画像104に割り当てられることはない。一方、入力文字列の最初の文字を表す入力文字画像104の左端から、入力文字列の最後の文字を表す入力文字画像104の右端までの長さ(つまり、入力文字画像104の時間軸方向(X軸方向)における幅)が、入力されたピッチカーブ103の時間軸方向(X軸方向)における長さよりも短い場合、以下のようにしてもよい。この場合、割り当て手段18によって、入力文字列の最後の文字を表す入力文字画像104に対して、入力されたピッチカーブ103の終端に合わせた音長が割り当てられる。図18(b)においては、割り当て手段18によって入力文字列の最後の文字を表す「ま」という入力文字画像104に対して、入力されたピッチカーブ103の終端に合わせた音長が割り当てられている。   FIG. 18B shows a state in which the user has input the pitch curve 103 from the state of FIG. In FIG. 18B, the display position in the pitch direction (Y-axis direction) is changed by the display control unit 13 for each of the input character images 104 according to the shape of the pitch curve 103. Here, since the initial sound generation time is already assigned to each of the input character images 104, the ratio between the character string sound length and the sound generation time is assigned by the assigning means 18 according to the shape of the pitch curve 103 as in the embodiment. A sound length based on a plurality of pronunciation records including is not assigned to each input character image 104. On the other hand, the length from the left end of the input character image 104 representing the first character of the input character string to the right end of the input character image 104 representing the last character of the input character string (that is, the time axis direction of the input character image 104 ( When the width in the (X-axis direction) is shorter than the length in the time-axis direction (X-axis direction) of the input pitch curve 103, the following may be performed. In this case, the assigning unit 18 assigns a sound length that matches the end of the input pitch curve 103 to the input character image 104 representing the last character of the input character string. In FIG. 18B, the assigning unit 18 assigns a sound length corresponding to the end of the input pitch curve 103 to the input character image 104 “ma” representing the last character of the input character string. Yes.

なお、割り当て手段18が、入力文字列の最後の文字を表す入力文字画像104に対して、ピッチカーブ103の終端に合わせて音長を割り当てる処理は、利用者によって「ON/OFF」を設定可能としてもよい。また、利用者がピッチカーブ103を入力した際に、割り当て手段18が入力文字画像104の各々に割り当てる発音時間は、あくまでも初期値であるため、利用者は、ピッチカーブ103の入力後に、入力文字画像104を表す矩形の左端(あるいは右端)又は割り当て文字画像109を時間軸方向(X軸方向)にドラッグすることで、各文字に割り当てられる音長を変更させることが可能である。また、利用者がタッチスクリーン31を介して設定を変更することで、当該変形例のような初期値発音辞書DBに基づく音長の割り当て処理に代わって、実施形態における、各文字の発音時間の比を記憶した発音辞書DB21に基づく音長の割り当て処理に移行することを可能にしてもよい。また、その逆に、利用者がタッチスクリーン31を介して設定を変更することで、各文字の発音時間の比を記憶した発音辞書DB21に基づく音長の割り当て処理に代わって、当該変形例のような初期値発音辞書DBに基づく音長の割り当て処理に移行することを可能にしてもよい。以上述べた変形例13によれば、各文字について、利用者の操作に依らず、自然な抑揚で発音された場合の音長が初期値として割り当てられる。なお、実施形態における発音辞書DB21及び上記初期値発音辞書DBはいずれも発音長辞書記憶手段に相当する。   In addition, the process in which the assigning unit 18 assigns the sound length to the input character image 104 representing the last character of the input character string in accordance with the end of the pitch curve 103 can be set to “ON / OFF” by the user. It is good. Further, when the user inputs the pitch curve 103, the sound generation time assigned to each of the input character images 104 by the assigning means 18 is an initial value to the last. By dragging the left end (or right end) of the rectangle representing the image 104 or the assigned character image 109 in the time axis direction (X-axis direction), the sound length assigned to each character can be changed. Further, when the user changes the setting via the touch screen 31, instead of the tone length assignment process based on the initial value pronunciation dictionary DB as in the modification, the pronunciation time of each character in the embodiment is changed. It may be possible to shift to a sound length assignment process based on the pronunciation dictionary DB 21 storing the ratio. On the contrary, when the user changes the setting via the touch screen 31, instead of the tone length assignment process based on the pronunciation dictionary DB 21 storing the ratio of the pronunciation time of each character, the modification example It may be possible to shift to a sound length assignment process based on such an initial value pronunciation dictionary DB. According to the modified example 13 described above, for each character, the sound length when it is pronounced with natural inflection is assigned as an initial value regardless of the operation of the user. Note that both the pronunciation dictionary DB 21 and the initial value pronunciation dictionary DB in the embodiment correspond to a pronunciation length dictionary storage unit.

<変形例14>
音声合成装置100のハードウェア構成は、図1で説明したものに限定されない。図5に示される機能を実装できるものであれば、音声合成装置100はどのようなハードウェア構成を有していてもよい。例えば、音声合成装置100は、図5に示される機能要素の各々に対応する専用のハードウェア(回路)を有していてもよい。
<Modification 14>
The hardware configuration of the speech synthesizer 100 is not limited to that described with reference to FIG. The speech synthesizer 100 may have any hardware configuration as long as the functions shown in FIG. 5 can be implemented. For example, the speech synthesizer 100 may have dedicated hardware (circuit) corresponding to each of the functional elements shown in FIG.

<変形例15>
上述の実施形態で説明した音声合成アプリケーションに関するプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。
<Modification 15>
The program relating to the speech synthesis application described in the above-described embodiment includes a magnetic recording medium (magnetic tape, magnetic disk (HDD, FD (Flexible Disk)), etc.), optical recording medium (optical disk (CD (Compact Disk)), DVD (Digital Versatile Disk))), a magneto-optical recording medium, and a computer-readable recording medium such as a semiconductor memory (flash ROM or the like). The program may be downloaded via a network such as the Internet.

10…制御部、11…文字列取得手段、12…基準音長特定手段、13…表示制御手段、14…文字間隔制御手段、15…軌跡分析手段、16…音声レコード生成手段、17…音声合成手段、18…割り当て手段、20…記憶部、21…発音辞書DB、22…最短発音時間DB、23…音声DB、24…音響効果DB、30…UI部、31…タッチスクリーン、40…音声出力部、100…音声合成装置、101…テキストボックス、102…発音基準線、103、103a〜103f…ピッチカーブ、104、104a、104a’、104b…入力文字画像、105…再生ボタン画像、106…戻るボタン画像、107、107a、107a’、107b…入力文字線、108A〜108E…入力文字画像群、109…割り当て文字画像、110…筐体、111…スピーカ、112…メニューボタン画像、113…時間軸目盛り、A〜E、A’…交差点、L1a、L1a’、L2…接線、α、α’…差分長、β、γ…距離 DESCRIPTION OF SYMBOLS 10 ... Control part, 11 ... Character string acquisition means, 12 ... Reference | standard sound length specification means, 13 ... Display control means, 14 ... Character space | interval control means, 15 ... Trajectory analysis means, 16 ... Voice record generation means, 17 ... Speech synthesis Means, 18 ... Allocation means, 20 ... Storage part, 21 ... Pronunciation dictionary DB, 22 ... Shortest pronunciation time DB, 23 ... Audio DB, 24 ... Acoustic effect DB, 30 ... UI part, 31 ... Touch screen, 40 ... Audio output , 100 ... speech synthesizer, 101 ... text box, 102 ... pronunciation reference line, 103, 103a to 103f ... pitch curve, 104, 104a, 104a ', 104b ... input character image, 105 ... playback button image, 106 ... return Button image, 107, 107a, 107a ′, 107b... Input character line, 108A to 108E... Input character image group, 109. 110 ... Case, 111 ... Speaker, 112 ... Menu button image, 113 ... Time axis scale, A to E, A '... Intersection, L1a, L1a', L2 ... Tangent, α, α '... Difference length, β, γ …distance

Claims (5)

複数の文字によって構成された文字列を取得する文字列取得手段と、
取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示手段と、
時間を表す第1軸および音高を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示手段と、
表示されている前記図形において、表示されている前記文字列を構成する各文字に対応する位置の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て手段と、
前記文字列を構成する各文字を前記割り当て手段によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成手段と
を備えることを特徴とした音声合成装置。
A character string acquisition means for acquiring a character string composed of a plurality of characters;
Character string display means for displaying each character constituting the acquired character string on a display means;
When a graphic in a coordinate system having a first axis representing time and a second axis representing pitch is specified by the user, the display means is associated with each character constituting the character string. Graphic display means to be displayed on,
In the displayed graphic, based on the coordinate value of the position corresponding to each character constituting the displayed character string, an assigning unit that assigns a pitch and a sound length to each character;
A speech synthesizer comprising: speech synthesizer that synthesizes speech data that causes each character constituting the character string to be pronounced at a pitch and a pitch assigned by the assigning unit.
単語を発音するときの発音時間に対する、当該単語を構成する各文字の発音時間の長さ又は当該単語を構成する各文字の発音時間の比を、複数の単語について記憶する発音長辞書記憶手段を備え、
前記割り当て手段は、前記文字列の全体を発音するときの音長であって利用者が指定した文字列音長と、当該文字列を構成する各文字について前記発音長辞書記憶手段に記憶されている前記発音時間の長さ又は前記発音時間の比とに基づいて、前記各文字に音長を割り当てる
ことを特徴とする請求項1に記載の音声合成装置。
A pronunciation length dictionary storage means for storing, for a plurality of words, a length of a pronunciation time of each character constituting the word or a ratio of a pronunciation time of each character constituting the word with respect to a pronunciation time when the word is pronounced Prepared,
The assigning means is a sound length used when the entire character string is pronounced and is stored in the pronunciation length dictionary storage means for the character string sound length designated by the user and each character constituting the character string. The speech synthesizer according to claim 1, wherein a sound length is assigned to each character based on the length of the pronunciation time or the ratio of the pronunciation times.
前記文字列を構成する各文字に音高又は音長を割り当てるときの指標を前記表示手段に表示させる指標表示手段を備え、
前記割り当て手段は、前記指標表示手段によって表示されている指標に従って、前記図形において前記文字列を構成する各文字に対応する位置の座標値を補正し、当該補正後の座標値に基づき、前記各文字に音高及び音長を割り当てる
ことを特徴とする請求項1又は2に記載の音声合成装置。
Comprising indicator display means for displaying on the display means an indicator for assigning pitch or length to each character constituting the character string;
The allocating unit corrects the coordinate value of the position corresponding to each character constituting the character string in the graphic according to the index displayed by the index display unit, and based on the corrected coordinate value, The speech synthesizer according to claim 1 or 2, wherein pitch and length are assigned to the character.
複数の図形の形状の各々に対応付けて、文字が発音される際に適用される音響効果を記憶した音響効果記憶手段を備え、
前記図形表示手段は、前記表示手段に表示されている図形に対して重ね合わせられた図形が利用者によって指定されると、当該重ね合わせられた図形を前記表示手段に表示させ、
前記割り当て手段は、前記音響効果記憶手段に記憶されている複数の図形の形状のうち、前記重ね合わせられた図形との類似度が閾値を超える図形の形状を特定し、特定した図形の形状に対応付けられて記憶されている音響効果を、当該重ね合わせられた図形の座標値に対応する位置に表示されている前記文字に割り当てる
ことを特徴とする請求項1〜3のいずれか1に記載の音声合成装置。
Corresponding to each of the shapes of a plurality of figures, comprising acoustic effect storage means for storing the acoustic effect applied when a character is pronounced,
When the figure superimposed on the figure displayed on the display means is designated by the user, the figure display means displays the superimposed figure on the display means,
The assigning means specifies a shape of a figure whose similarity with the superimposed figure exceeds a threshold among the shapes of the plurality of figures stored in the acoustic effect storage means, and sets the shape of the specified figure. The sound effect stored in association with each other is assigned to the character displayed at a position corresponding to the coordinate value of the superimposed figure. Voice synthesizer.
コンピュータに、
複数の文字によって構成された文字列を取得する文字列取得機能と、
取得された前記文字列を構成する各文字を表示手段に表示させる文字列表示機能と、
音高を表す第1軸および時間を表す第2軸を有する座標系における図形が利用者によって指定されると、当該図形を、前記文字列を構成する各文字に対応付けた状態で前記表示手段に表示させる図形表示機能と、
表示されている前記文字列を構成する各文字に対応する前記図形の座標値に基づき、当該各文字に音高及び音長を割り当てる割り当て機能と、
前記文字列を構成する各文字を前記割り当て機能によって割り当てられた音高及び音長で発音させる音声データを合成する音声合成機能と
を実現させるためのプログラム。
On the computer,
A character string acquisition function for acquiring a character string composed of a plurality of characters;
A character string display function for causing the display means to display each character constituting the acquired character string;
When a graphic in a coordinate system having a first axis representing pitch and a second axis representing time is designated by the user, the display means is associated with each character constituting the character string. Graphic display function to be displayed on
An assignment function for assigning a pitch and a tone length to each character based on the coordinate value of the graphic corresponding to each character constituting the displayed character string;
A speech synthesis function for synthesizing speech data that causes each character constituting the character string to be pronounced at a pitch and a tone length assigned by the assignment function.
JP2010266776A 2010-10-12 2010-11-30 Speech synthesis apparatus and program Active JP5879682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010266776A JP5879682B2 (en) 2010-10-12 2010-11-30 Speech synthesis apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010230058 2010-10-12
JP2010230058 2010-10-12
JP2010266776A JP5879682B2 (en) 2010-10-12 2010-11-30 Speech synthesis apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015099936A Division JP2015163982A (en) 2010-10-12 2015-05-15 Voice synthesizer and program

Publications (2)

Publication Number Publication Date
JP2012103654A true JP2012103654A (en) 2012-05-31
JP5879682B2 JP5879682B2 (en) 2016-03-08

Family

ID=46394070

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010266776A Active JP5879682B2 (en) 2010-10-12 2010-11-30 Speech synthesis apparatus and program
JP2015099936A Pending JP2015163982A (en) 2010-10-12 2015-05-15 Voice synthesizer and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015099936A Pending JP2015163982A (en) 2010-10-12 2015-05-15 Voice synthesizer and program

Country Status (1)

Country Link
JP (2) JP5879682B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239972A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
WO2019239971A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
JP2020042056A (en) * 2018-09-06 2020-03-19 株式会社テクノスピーチ Voice synthesis device and voice synthesis method
JP7186476B1 (en) * 2022-07-29 2022-12-09 株式会社テクノスピーチ speech synthesizer

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337690A (en) * 1993-05-31 1994-12-06 Fujitsu Ltd Singing voice synthesizing device
JP2000221976A (en) * 1998-11-25 2000-08-11 Yamaha Corp Music data preparation device and recording medium for recording music data preparation program
JP2001265335A (en) * 2000-03-15 2001-09-28 Casio Comput Co Ltd Device and method for inputting performance information
US20030009338A1 (en) * 2000-09-05 2003-01-09 Kochanski Gregory P. Methods and apparatus for text to speech processing using language independent prosody markup
JP2003323188A (en) * 2002-02-28 2003-11-14 Yamaha Corp Method, device and program for synthesizing singing
JP2004170618A (en) * 2002-11-19 2004-06-17 Yamaha Corp Data conversion format of sequence data, speech reproducing device, and server device
JP2010072223A (en) * 2008-09-17 2010-04-02 Yamaha Corp Performance data editing device and program
US7750224B1 (en) * 2007-08-09 2010-07-06 Neocraft Ltd. Musical composition user interface representation
US20100288108A1 (en) * 2009-05-12 2010-11-18 Samsung Electronics Co., Ltd. Music composition method and system for portable device having touchscreen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293183A (en) * 1999-04-08 2000-10-20 Yamaha Corp Karaoke singing equipment
JP2002041074A (en) * 2000-07-28 2002-02-08 Yamaha Corp Device for vocal data generation and singing
JP2003263185A (en) * 2002-03-12 2003-09-19 Alpha Unit:Kk Voice outputting game device, recording medium with game program recorded thereon
JP2005345699A (en) * 2004-06-02 2005-12-15 Toshiba Corp Device, method, and program for speech editing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337690A (en) * 1993-05-31 1994-12-06 Fujitsu Ltd Singing voice synthesizing device
JP2000221976A (en) * 1998-11-25 2000-08-11 Yamaha Corp Music data preparation device and recording medium for recording music data preparation program
JP2001265335A (en) * 2000-03-15 2001-09-28 Casio Comput Co Ltd Device and method for inputting performance information
US20030009338A1 (en) * 2000-09-05 2003-01-09 Kochanski Gregory P. Methods and apparatus for text to speech processing using language independent prosody markup
JP2003323188A (en) * 2002-02-28 2003-11-14 Yamaha Corp Method, device and program for synthesizing singing
JP2004170618A (en) * 2002-11-19 2004-06-17 Yamaha Corp Data conversion format of sequence data, speech reproducing device, and server device
US7750224B1 (en) * 2007-08-09 2010-07-06 Neocraft Ltd. Musical composition user interface representation
JP2010072223A (en) * 2008-09-17 2010-04-02 Yamaha Corp Performance data editing device and program
US20100288108A1 (en) * 2009-05-12 2010-11-18 Samsung Electronics Co., Ltd. Music composition method and system for portable device having touchscreen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6014028092; VocaloWitter , 20140627, Yamaha Corporation *
JPN6015009672; 山田諒太郎,外1名: '歌詞朗読音声からのオンライン歌声合成システム' 情報処理学会研究報告 Vol.2010-MUS-85, No.11, 20100520, pp.1-5, 社団法人情報処理学会 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239972A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
WO2019239971A1 (en) * 2018-06-15 2019-12-19 ヤマハ株式会社 Information processing method, information processing device and program
JPWO2019239972A1 (en) * 2018-06-15 2021-06-17 ヤマハ株式会社 Information processing methods, information processing devices and programs
JPWO2019239971A1 (en) * 2018-06-15 2021-07-08 ヤマハ株式会社 Information processing methods, information processing devices and programs
JP7124870B2 (en) 2018-06-15 2022-08-24 ヤマハ株式会社 Information processing method, information processing device and program
JP7127682B2 (en) 2018-06-15 2022-08-30 ヤマハ株式会社 Information processing method, information processing device and program
US11437016B2 (en) 2018-06-15 2022-09-06 Yamaha Corporation Information processing method, information processing device, and program
JP2020042056A (en) * 2018-09-06 2020-03-19 株式会社テクノスピーチ Voice synthesis device and voice synthesis method
JP7186476B1 (en) * 2022-07-29 2022-12-09 株式会社テクノスピーチ speech synthesizer

Also Published As

Publication number Publication date
JP2015163982A (en) 2015-09-10
JP5879682B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
US8138408B2 (en) Music composition method and system for portable device having touchscreen
US9928817B2 (en) User interfaces for virtual instruments
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
JP2014056232A (en) Music information display controller
WO2016060254A1 (en) Musical performance assistance device and method
JP2015163982A (en) Voice synthesizer and program
JP5549521B2 (en) Speech synthesis apparatus and program
JP6136202B2 (en) Music data editing apparatus and music data editing method
JP5935815B2 (en) Speech synthesis apparatus and program
JP5434679B2 (en) Lyric syllable number presentation device and program
JP5589741B2 (en) Music editing apparatus and program
JP6149917B2 (en) Speech synthesis apparatus and speech synthesis method
JP4613817B2 (en) Fingering display device and program
JP5429840B2 (en) Speech synthesis apparatus and program
US11694724B2 (en) Gesture-enabled interfaces, systems, methods, and applications for generating digital music compositions
US8912420B2 (en) Enhancing music
JP7107720B2 (en) fingering display program
KR101427666B1 (en) Method and device for providing music score editing service
JP5810691B2 (en) Musical score information generating apparatus and musical score information generating program
JP5742303B2 (en) Musical sound generation control device and musical sound generation control program
JP2007178696A (en) Fingering information generating device and program
JP2013161040A (en) Music score creation device, music score creation method, program, and recording medium
KR101560796B1 (en) A method, system and computer readable electronical medium for easily composing the music on a electronic device
JP6358554B2 (en) Musical sound control device, musical sound control method and program
TW201543466A (en) Musical composition method, musical composition program product and musical composition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160118

R151 Written notification of patent or utility model registration

Ref document number: 5879682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151