WO2009107441A1 - 音声合成装置、テキスト生成装置およびその方法並びにプログラム - Google Patents

音声合成装置、テキスト生成装置およびその方法並びにプログラム Download PDF

Info

Publication number
WO2009107441A1
WO2009107441A1 PCT/JP2009/051374 JP2009051374W WO2009107441A1 WO 2009107441 A1 WO2009107441 A1 WO 2009107441A1 JP 2009051374 W JP2009051374 W JP 2009051374W WO 2009107441 A1 WO2009107441 A1 WO 2009107441A1
Authority
WO
WIPO (PCT)
Prior art keywords
sentence
editing
input text
time length
speech
Prior art date
Application number
PCT/JP2009/051374
Other languages
English (en)
French (fr)
Inventor
康行 三井
玲史 近藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2010500617A priority Critical patent/JPWO2009107441A1/ja
Publication of WO2009107441A1 publication Critical patent/WO2009107441A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Definitions

  • the present invention relates to a speech synthesizer, a text generator, a method thereof, and a program for generating synthesized speech that conveys the content of a sentence indicated by the text from input text.
  • Patent Document 1 discloses a speech synthesizer that specifies a part whose meaning is difficult, a part whose pronunciation is difficult to hear, a part where a homonym is present, and replaces it with a plain sentence or changes an acoustic parameter. Are listed.
  • Patent Document 2 describes a spoken sentence format text creation device that inputs descriptive sentence format text and automatically generates spoken sentence format text while controlling language analysis.
  • Japanese Patent Laid-Open No. 2004-26853 also describes that automatically generated colloquial text is displayed, and an instruction for correction or the like is received from the user based on this display, and correction is performed.
  • Patent Document 3 when outputting any text as voice, a comma or a relative or preposition within a specified length is divided as a keyword, and a synthesized voice is output for each divided break.
  • the equipment is listed.
  • Patent Document 1 and Patent Document 2 if a text is not prepared considering whether it is easy to hear as a voice, a very redundant sentence is generated. There is. Human short-term memory capacity is limited, especially for the elderly, children, or listeners who are not familiar with synthetic speech or listeners who are listening to the task while working. Is expensive.
  • an object of the present invention is to provide a speech synthesizer, a text generator, a method used therefor, and a program that can utter the content of input text in a form that is easy for a listener to understand.
  • a speech synthesizer is a speech synthesizer for generating synthesized speech that conveys the content of a sentence indicated by the text from the input text, and means one sentence included in the sentence indicated by the input text
  • Edit rule storage means for storing an edit rule that is a rule for completing the divided sentences as correct sentences, and dividing into a plurality of parts without changing the contents, and a segment of the synthesized speech generated in accordance with the edit rules Is provided with sentence editing means for dividing one sentence included in the sentence indicated by the input text so as to satisfy the condition of the given time length or the number of characters and editing each sentence end after the division.
  • the text generation device is a text generation device for generating synthesized speech that conveys the content of a sentence indicated by the text from the input text, and includes one sentence included in the sentence indicated by the input text.
  • An editing rule storage means for storing an editing rule that is a rule for dividing the divided into plural without changing the semantic content, and completing each divided as a correct sentence, and a synthesized speech generated in accordance with the editing rule
  • a sentence editing unit that divides one sentence included in the sentence indicated by the input text and edits the end of each sentence after the division so as to satisfy a condition of time length or the number of characters given a break.
  • a synthetic speech generation sentence editing method is a synthetic speech generation sentence editing method for generating synthetic speech that conveys the content of a sentence indicated by the text from the input text.
  • a sentence included in the sentence to be shown is divided into a plurality of parts without changing the semantic content, and a segment of the synthesized speech to be generated is given while following the editing rules for completing each divided part as a correct sentence.
  • One sentence included in the sentence indicated by the input text is divided so that the condition of the specified time length or the number of characters is satisfied, and the end of each divided sentence is edited.
  • the synthesized speech generation sentence editing program is a synthesized speech generation sentence editing program for generating synthesized speech that conveys the content of the sentence indicated by the text from the input text,
  • One sentence included in the sentence indicated by the input text is divided into a plurality of parts without changing the semantic content, and the generated synthesized speech is generated in accordance with the editing rule that is a rule for completing each divided part as a correct sentence.
  • One sentence included in the sentence indicated by the input text is divided so that the condition of the time length or the number of characters given a break is satisfied, and a sentence editing process for editing each sentence end after the division is executed. .
  • FIG. 3 is a block diagram illustrating a configuration example of a language analysis unit 101. It is explanatory drawing which shows an example of a language analysis result. 3 is a block diagram illustrating an example of a configuration of a language analysis result editing unit 103 and an editing rule storage unit 113.
  • FIG. It is explanatory drawing which shows the relationship between the example of a division
  • FIG. It is a block diagram which shows the structural example of the speech synthesizer by 2nd Embodiment. It is a block diagram which shows the structural example of the speech synthesizer by 3rd Embodiment. It is a flowchart which shows the operation example of the speech synthesizer of 3rd Embodiment. It is explanatory drawing which shows the example of estimation of a dependency structure. It is explanatory drawing which shows the example of a division
  • FIG. 1 is a block diagram showing a configuration example of a speech synthesizer according to the present invention.
  • the speech synthesizer shown in FIG. 1 is a speech synthesizer for generating synthesized speech that conveys the content of a sentence indicated by the text from input text, and includes an editing rule storage unit 11, a sentence editing unit 12, Is provided.
  • the editing rule storage means 11 stores an editing rule that is a rule for dividing one sentence included in the sentence indicated by the input text into a plurality of parts without changing the semantic content, and completing each divided part as a correct sentence. .
  • the editing rule storage unit 11 includes an editing rule that includes a division rule that defines a part that can be a division part, and a sentence ending expression conversion rule for converting each sentence ending expression after division according to the division rule. Rules are remembered.
  • the edit rule storage unit 11 may further store a synonym dictionary.
  • the sentence editing unit 12 divides one sentence included in the sentence indicated by the input text so as to satisfy the condition of the time length or the number of characters given a break of the generated synthesized speech in accordance with the editing rule, Edit the end of each sentence that follows.
  • the expression “sentence” is used as a general term for what is expressed by connecting characters. Therefore, the present invention is not necessarily limited to a configuration composed of a plurality of sentences.
  • the sentence editing unit 12 divides the synthesized speech so that the time length or the number of characters generated from the text edited by the sentence editing unit 12 is the same so that the difference between the sentences becomes the smallest. May be.
  • a synonym dictionary is stored, when the expression used in the sentence indicated by the input text is converted into another simpler expression by collation with the synonym dictionary, It is also possible to narrow down conversion candidates based on the time length of synthesized speech or the number of characters. If the time length of the synthesized speech generated from the edited text does not satisfy the given time length condition, it is a parameter used when generating the synthesized speech and is related to the speed of the synthesized speech. A parameter may be specified.
  • the speech synthesizer can be configured as shown in FIG.
  • the speech synthesizer may include language analysis means 13 that performs language analysis on the input text.
  • the sentence editing unit 12 is predicted from the sentence structure of the input text obtained as an analysis result by the language analysis unit 13 (for example, the morpheme structure in the sentence indicated by the input text) and the input text. Based on the time length of the synthesized speech or the number of characters to be measured, one sentence included in the sentence indicated by the input text is divided so as to meet the given condition of the time length or the number of characters while following the editing rules. In addition, the end of each divided sentence may be edited.
  • the editing rule in this case is a division rule that defines a location that can be a division location using information (for example, part of speech information) that indicates an element of the sentence structure obtained as an analysis result of the language analysis means 13.
  • a sentence end expression conversion rule that defines an expression form after conversion is included for an expression form that can be taken as an element that becomes a delimiter at the time of division.
  • the sentence editing unit 12 is uttered in accordance with the segmentation and sentence ending expression in the edited sentence when, for example, the means for performing synthesized speech processing (speech synthesis means) receives the language analysis result for the input text.
  • the language analysis result for the input text may be edited so that a synthesized speech is generated.
  • the phonetic symbol string, delimiter information, etc. may be changed in accordance with the edited text.
  • the speech synthesizer may include dependency analysis means 14 for analyzing the dependency structure of the sentence indicated by the input text.
  • the sentence editing unit 12 indicates the input text indicated by the minimum configuration of units that can maintain the dependency based on the dependency structure of the input text obtained as an analysis result by the dependency analysis unit 14.
  • One sentence included in the sentence may be divided. Note that this method can be applied in combination when it is used to divide the sentence when the time length or the number of characters cannot be satisfied as a result of the division based on the sentence structure. It is.
  • the speech synthesizer may include an acoustic feature quantity estimation unit 15 that estimates an acoustic feature quantity of synthesized speech generated from the input text.
  • the sentence editing unit 12 determines the tonal feature amount of the input text estimated by the acoustic feature amount estimation unit 15, the time length of the synthesized speech predicted from the input text, or the number of characters to be measured. Based on the above, one sentence included in the sentence indicated by the input text may be divided so as to meet a given condition of time length or number of characters while following the editing rule. Note that this method can be applied in combination when, for example, it is used to further divide a sentence when the condition of time length or the number of characters cannot be satisfied as a result of attempting division.
  • the speech synthesizer may include condition input means 16 for inputting a time length or character number condition according to a user operation.
  • the text editing unit 12 may divide and edit based on the time length or the number of characters input by the condition input unit 16.
  • the speech synthesizer may include time length estimation means 17 for estimating the time length of the synthesized speech generated from the input text.
  • the time length estimation unit 17 may estimate the time length of the synthesized speech generated from the input text based on a parameter used when the synthesized speech is generated. It is assumed that the parameter includes at least the speech rate.
  • the synthesized speech whose time length estimation means 17 estimates the time length is not limited to the synthesized speech when speech synthesis is performed on the text indicated by the input text, but is also a text specified for editing by the text editing means 12. (Each sentence and sentences being edited).
  • the editing rule storage unit 11, the sentence editing unit 12, the language analysis unit 13, the dependency analysis unit 14, the acoustic feature amount estimation unit 15, and the time length estimation unit 17 are, for example, according to a program such as a CPU provided in the speech synthesizer. Realized by an operating processor.
  • the condition input means 16 is implement
  • FIG. FIG. 3 is a block diagram showing a configuration example of the speech synthesizer according to the first embodiment of the present invention.
  • the speech synthesizer 100 of this embodiment includes a language analysis unit 101, a time length estimation unit 102, a language analysis result editing unit 103, a speech synthesis unit 104, and a synthesized speech database 111 ( Hereinafter, it is referred to as a synthesized speech DB 111), a time length condition storage unit 112, and an editing rule storage unit 113.
  • the language analysis unit 101 performs language analysis on the input text.
  • a language analysis method for example, a language analysis method based on morphological analysis may be used. It is also possible to use an existing Japanese morphological analysis tool such as ChaSen.
  • the time length estimation unit 102 estimates the time length of the synthesized speech generated from the input text. For example, the time length estimation unit 102 estimates the time length of the synthesized speech when a synthesized speech is generated from the specified sentence (regardless of language unit). Note that the specified sentence may be the entire sentence indicated by the input text, each sentence included in the sentence, a sentence block being edited by the language analysis result editing unit 103, or after editing It may be a sentence. Note that the time length estimation unit 102 determines the time of synthesized speech based on, for example, speech synthesis parameters (more specifically, speech rate) stored in the synthesized speech DB 111 and the number of characters of the input text. Estimate the length.
  • speech synthesis parameters more specifically, speech rate
  • the synthesized speech DB 111 stores speech synthesis parameters (various parameter values necessary for generating synthesized speech) set for the speech synthesizer 104. Note that any method may be used for speech synthesis, but it is desirable that the speech synthesis parameters be set freely.
  • the language analysis result editing unit 103 is information obtained as a language analysis result for the input text in accordance with a time length condition stored in a time length condition storage unit 112 described later and an editing rule stored in the editing rule storage unit 113. Is given to the speech synthesis unit 104 as information indicating the edited text. Specifically, the language analysis result editing unit 103 follows the editing rules, and the sentence in the language analysis result is set so that the synthesized speech generated from the edited language analysis result matches the set time length condition. The delimiter information is changed, and the sentence end expression is changed so that it becomes natural as the end of the sentence at the end of each delimiter.
  • the language analysis result editing unit 103 is a processing unit corresponding to the text editing unit 12 shown in FIGS. 1 and 2.
  • the time length condition storage unit 112 stores a time length condition set for the apparatus.
  • the time length condition stipulates the time length of the synthesized speech that is easy for the listener to understand. Specifically, the time length condition indicates the time length condition of the speech that is divided into one segment when the synthesized speech is output. Information.
  • the time length condition may be a threshold setting such as “5 seconds or less” or a range designation such as “2 seconds or more and 7 seconds or less”.
  • the edit rule storage unit 113 stores an edit rule that is a rule for dividing one sentence included in the sentence indicated by the input text into a plurality of parts without changing the semantic content, and completing each divided part as a correct sentence.
  • editing rules for example, synonym dictionaries for maintaining the same semantic content and transforming expressions more easily understandable, division rules for defining parts that can be divided, and each sentence block after division is completed as a correct sentence What is necessary is just to memorize the rule for changing the sentence end expression.
  • the speech synthesizer 104 receives the language analysis result (information indicating the edited sentence) edited by the language analysis result editor 103 as input, and generates a speech waveform.
  • the speech synthesis unit 104 receives a batch of information indicating the entire edited sentence including information used as a separator when generating the synthesized speech from the language analysis result editing unit 103, or a series of synthesis. It is assumed that information indicating sentences generated as speech is sequentially input.
  • the information indicating the edited sentence may be information that can generate synthesized speech uttered in accordance with the break and end-of-sentence expression in the edited sentence, and is not necessarily in the data format of the language analysis result. It doesn't mean that For example, a phonetic symbol string may be used as long as it matches the input format of the speech synthesizer 104.
  • FIG. 4 is a flowchart showing an operation example of the speech synthesizer of the present embodiment.
  • the language analysis unit 101 analyzes the language of the input text (step S102).
  • the time length estimation unit 102 estimates the time length of the synthesized speech when the sentence indicated by the input text is synthesized based on the language analysis result by the language analysis unit 101 (step S103).
  • the process of step S103 may be repeatedly executed after the process of step S104.
  • the language analysis result editing unit 103 performs editing while following the editing rules stored in the editing rule storage unit 113 based on the language analysis result by the language analysis unit 101 and the estimated time length by the time length estimation unit 102.
  • the language analysis result is edited so that the synthesized speech generated by the subsequent language analysis result matches the time length condition stored in the time length condition storage unit 112 (step S104).
  • the speech synthesis unit 104 performs speech synthesis processing based on the language analysis result edited in step S104, and sequentially outputs speech waveforms (step S105).
  • FIG. 5 is a block diagram illustrating a configuration example of the language analysis unit 101.
  • the language analysis unit 101 may include an analysis processing unit 1011, a morphological analysis model 1012, and a dictionary storage unit 1013.
  • the analysis processing unit 1011 divides the sentence indicated by the input text into morphemes by collating with the dictionary stored in the dictionary storage unit 1013. At this time, information such as part of speech is added to each morpheme. Based on the morphological analysis model 1012, the most likely grammatical structure (arrangement) is derived from the resulting part-of-speech arrangement.
  • the language analysis unit 101 outputs the derived morpheme structure as a language analysis result.
  • the morphological analysis model 1012 may be, for example, a probabilistic language model based on a hidden Markov model (HMM, Hidden Markov Model). Instead of the morphological analysis model 1012, it is also possible to use rules that define idioms and parts of speech.
  • FIG. 6 is an explanatory diagram showing an example of the language analysis result.
  • the sentence A included in the sentence explaining how to make curry, “Clean potatoes and carrots, peel, cut into bite-sized pieces, and expose the potatoes to water.”
  • the result of morphological analysis is shown.
  • a linguistic analysis result indicating the morpheme structure in sentence A by a combination of morpheme and part of speech is output.
  • the sentence A is “potato (noun) / and (case particle) / carrot (noun) / a (case particle) / clean (adjective verb) / arai (verb) /, / kawa (noun).
  • FIG. 7 is a block diagram illustrating a configuration example of the language analysis result editing unit 103 and the editing rule storage unit 113.
  • the language analysis result editing unit 103 may include a synonym conversion unit 1031, a sentence division unit 1032, and a sentence end conversion unit 1033.
  • the editing rule storage unit 113 may include a synonym dictionary storage unit 1131, a division rule storage unit 1132, and a sentence ending expression conversion rule storage unit 1133.
  • the synonym conversion unit 1031, sentence division unit 1032, and sentence end conversion unit 1033 each change information (phonetic symbol string and delimiter information) obtained as a result of language analysis for the input text. Divide and change the end of sentence expression.
  • the synonym dictionary storage unit 1131 stores a synonym dictionary for converting the expression in an easily understandable manner while retaining the same semantic content.
  • the synonym dictionary is information that associates terms having the same meaning with each other, for example.
  • the division rule storage unit 1132 stores a division rule that defines a part that can be divided.
  • the division rule is, for example, information indicating an element that can be a delimiter when dividing using information (part of speech information, etc.) that specifies an element in a syntax structure obtained as a language analysis result.
  • the sentence end expression conversion rule storage unit 1133 stores a sentence end expression conversion rule for converting the sentence end expression so that each divided sentence block is divided as a correct sentence when divided according to the division rule.
  • the sentence end expression conversion rule may be, for example, a conversion table in which an expression form after conversion is associated with an expression form that can become the sentence end when divided.
  • the synonym conversion unit 1031 uses the synonym dictionary stored in the synonym dictionary storage unit 1131 to convert words whose contents are difficult to understand into easy-to-understand words.
  • sentence A it is assumed that it is difficult for a user who is not experienced in cooking to understand what the action “expose” indicates.
  • the word “attach to (water)” is registered in the synonym dictionary storage unit 1131 in association with “Fare (verb)”, and the synonym conversion unit 1031 uses this synonym dictionary storage unit. By searching 1131, it is converted into the word “attach to (water)”. Specifically, the information on the corresponding part of the sentence in the language analysis result may be changed to information indicating the converted word.
  • the sentence division unit 1032 divides each sentence included in the sentence indicated by the input text as necessary according to the time length condition and the division rule stored in the division rule storage unit 1132. Specifically, information on sentence breaks in the language analysis result may be changed.
  • FIG. 8 is an explanatory diagram showing the relationship between the division example of sentence A and the time length. For example, it is assumed that a time length estimation result as shown by (1) in FIG. Further, it is assumed that a threshold setting of “less than 5 seconds” is set as the time length condition.
  • the sentence dividing unit 1032 divides the sentence A.
  • the time length estimation unit 102 is caused to re-estimate the time length of the text after conversion by the synonym conversion unit 1031 and the result is edited. May be.
  • a rule “divide only verbs as a delimiter” is stored in the division rule storage unit 1132 as a division rule.
  • the verbs “Arai”, “Muki”, “Kiri”, and “Add” are exposed as delimiters from the language analysis result.
  • the sentence dividing unit 1032 converts sentence A into [a]: “potato / and / carrot / to / clean / arrange /, / kawa //////// Divide it into two parts: [Pit / Dai / Ni / Kiri /,] and [b]: “Potato / Hai / Mizu / To / Attach.”
  • each of the divided [a] and [b] is fed back to the time length estimation unit 102 and the time length is reestimated.
  • [a] is 6.5 seconds and [b] is 2.5 seconds.
  • the sentence dividing unit 1032 determines that [b] does not require further division because [a] is greater than or equal to the threshold and [b] is less than the threshold, and tries to perform division again only on [a]. Just do it.
  • the sentence dividing unit 1032 further converts [a] into [c]: “potato / and / carrot / to / clean / arrai /// kawa / , ”And [d]:“ Digit / Dai / Ni / Kiri /, ”. Then, these are fed back to the time length estimation unit 102 to re-estimate the time length. In this example, it is assumed that [c] is 4.95 seconds and [d] is 1.5 seconds. In such a case, the sentence dividing unit 1032 determines that no further division is necessary because both [c] and [d] are less than the threshold, and the division process may be terminated.
  • the sentence ending conversion unit 1033 changes the sentence ending expression so that the end of each sentence divided by the sentence dividing unit 1032 becomes natural as the sentence ending in accordance with the sentence ending expression conversion rule stored in the sentence ending expression conversion rule storage unit 1133.
  • a conversion table that prescribes the expression format after conversion (how to use the final form) for the expression format (here, the verb usage form) that can be taken as an element that becomes the delimiter for division. Need only be stored. For example, information indicating that the last “no sound” is changed to “sound” is associated with a five-step verb.
  • the sentence end conversion unit 1033 may convert “Arai (verb: continuous use / fifth stage)” into a final form “Arai” based on the sentence end expression conversion table.
  • [c] is converted to [c] ′: “potato / to / carrot / to / clean / arrai /// kawa ///”.
  • [d] is converted to [d] ′: “Hitto / Dai / Ni / Ki”.
  • [b] is originally an end type, so [b]: “potato / hazuki / to / attach” may be used.
  • the sentence ending conversion unit 1033 changes the sentence ending expression for the three sentence blocks after the sentence A is divided, such as [c] ′, “d” ′, and [b]. Specifically, the information on the corresponding part of the sentence in the language analysis result may be changed to information indicating the sentence end expression after the change.
  • the language analysis result edited in this way is input to the speech synthesizer 104 as information for generating a synthesized speech having an intended sentence delimiter and sentence ending expression as the edited sentence.
  • c] ′, “d” ′, and synthesized speech corresponding to [b] are sequentially generated and output.
  • the division result is fed back to the time length estimation unit 102 for each division, and the time length is re-estimated.
  • the time length after division is estimated in advance based on the separation candidates. May be.
  • the sentence dividing unit 1032 can also obtain a dividing method that satisfies the time length condition by using an optimization method or the like.
  • the sentence division unit 1032 has the greatest difference in the synthesized speech time length (difference between each sentence block as one break) based on the time length of each sentence block estimated based on the break candidate. What is necessary is just to divide
  • the method that the synonym conversion part 1031 narrows down a synonym conversion candidate further can also be considered. As a result, the user can always listen to a sound having a substantially constant length, and can listen to the sound without disturbing the tempo.
  • FIG. 9 is an explanatory diagram illustrating another example of division of the sentence A.
  • the synonym conversion unit 1031 may perform time length estimation for the conversion candidate at the time of conversion, and search for a candidate with the shortest time length. It is also possible to select a candidate that is the shortest depending on the number of characters without performing time length estimation.
  • an adjective or an adjective verb has an end form as an inflection form.
  • the part of speech is a delimiter candidate.
  • nouns may be included as delimiter candidates.
  • synonymous sayings such as “Kappa no river flow” and “K ⁇ b ⁇ 's brush error” can be used as elements to be converted. It should be noted that a plurality of these elements can be targeted for conversion, such as “use sentence end as verb or adjective”.
  • the sentence ending conversion unit 1033 converts the sentence ending of each sentence into an end form, but it may be converted into another expression.
  • sentence A it is possible to unify and convert it into expressions such as “washing” or “cutting”.
  • expressions such as “I want to do”, “I want to do”, “I want to do”, etc. can be designated according to the use.
  • the speech speed of each sentence after division may be changed. For example, when a range specification such as “4 seconds or more and less than 5 seconds” is specified in the time length condition, it is also possible to adjust the speech speed so that the time length of each sentence falls within the specified range. is there.
  • the sentence dividing unit 1032 gives priority to the division rule so as to divide the sentence included in the sentence indicated by the input text, and after the sentence ending conversion unit 1033 edits the sentence ending, the sentence dividing unit 1032 A means for determining the speech speed so as to meet the long condition (for example, a speech speed determining unit) may be provided. The speech speed determination may be performed by the time length estimation unit 102.
  • the sentence indicated by the input text subjected to language analysis is divided and divided so that the synthesized speech of the decrypted sentence that satisfies the condition of the given time length is generated. Since the end of each sentence is edited, it is possible to generate an easy-to-understand synthesized speech without changing the meaning of the input text.
  • the speech synthesizer 100 may include a time length condition input unit so that the user can set a time length in the time length condition storage unit 112. In such a case, the operation can be performed under a condition of a desired time length for each user.
  • FIG. 10 is a block diagram showing a configuration example of a speech synthesizer according to the second embodiment of the present invention. As shown in FIG. 10, the present embodiment is different from the first embodiment shown in FIG. 7 in that an acoustic feature quantity estimation unit 105 is provided.
  • the acoustic feature quantity estimation unit 105 performs acoustic synthesis on a sentence indicated by the input text (for example, spectral information such as pitch frequency, pitch pattern, cepstrum, and the like, Reading, accent position, accent break, etc.).
  • the sentence dividing unit 1032 further divides the sentence indicated by the input text using the acoustic feature amount estimated by the acoustic feature amount estimating unit 105.
  • the division rule of this embodiment defines not only a division rule that defines a location that can be a division location (separation) using elements in the sentence structure, but also a location that can be a division location using an acoustic feature amount.
  • a division rule can be used. For example, a rule may be considered that the division is performed so that the accent types at the end of each sentence after the division match as much as possible, or the pitch patterns are classified so as to have similar shapes.
  • the estimated synthesized speech pitch pattern of the accent phrase at the divided portion is normalized in the time direction, and the root mean square distance in the frequency direction from the origin is obtained for each. Can be determined. In addition, what is necessary is just to judge that it is similar if the calculated
  • FIG. 11 is a block diagram illustrating a configuration example of a speech synthesizer according to the third embodiment of the present invention.
  • the speech synthesizer according to the present embodiment is different from the first embodiment shown in FIG. 3 in that a dependency analysis unit 106 is provided.
  • the language analysis result editing unit 103 further divides and edits a sentence included in the sentence indicated by the input text based on the analysis result by the dependency analysis unit 106.
  • the dependency analysis unit 106 analyzes the dependency structure of the input text and generates dependency information. Note that the dependency analysis unit 106 may analyze the dependency structure using the analysis result of the language analysis unit 101.
  • the sentence division unit 1032 has a dependency structure analyzed by the dependency analysis unit 106 based on a time length condition and a division rule that specifies that the division is performed while maintaining at least the dependency. Is used to divide the sentence indicated by the input text. It should be noted that the division rule may further define which part of speech is delimited as the end of a sentence.
  • FIG. 12 is a flowchart showing an operation example of this embodiment.
  • the same operations steps S101 to S102, S103 to S105) as those in the first embodiment shown in FIG.
  • the dependency analysis unit 106 in response to the language analysis unit 101 analyzing the language of the input text (step S102), the dependency analysis unit 106 further analyzes the dependency structure of the input text. (Step S201).
  • the language analysis result editing unit 103 includes a time length condition stored in the time length condition storage unit 112, an editing rule stored in the editing rule storage unit 113, a language analysis result by the language analysis unit 101, A language analysis result is edited based on the dependency structure analyzed by the dependency analysis unit 106 (step S104).
  • the speech synthesis unit 104 performs speech synthesis processing on the text edited in step S104, and sequentially outputs speech waveforms (step S105).
  • FIG. 13 is an explanatory diagram illustrating an example of estimating a dependency structure.
  • the dependency analysis unit 106 when focusing on the part “clean potatoes and carrots”, the nouns “potato” and “carrot” are in a parallel relationship, and each is related to the verb “(cleanly)”. It is shown that the dependency structure to the effect is estimated by the dependency analysis unit 106.
  • the time length condition stipulates that “divide it into less than 3 seconds”. Even if the sentence dividing unit 1032 divides as shown in (5) of FIG. 8 described above, [c] ′ does not satisfy the time length condition. Moreover, even if it divides
  • the semantic content is retained by dividing and reconstructing using the dependency structure.
  • the possibility that the time length condition can be satisfied is increased.
  • step S102 and the processing in step S201 can be performed in parallel.
  • Embodiment 4 FIG.
  • the time length when speech synthesis is performed is used as a guideline for sentence separation that is easy for the listener to understand, but the number of characters to be synthesized is used instead of the time length of the synthesized speech.
  • the character number counting unit 107 that counts the number of characters in the sentence indicated by the input text, and the listener can easily understand.
  • a character number condition storage unit 114 that stores a character number condition that defines the number of spoken characters.
  • the language analysis result editing unit 103 follows the number of characters stored in the character number condition storage unit and the editing rule stored in the editing rule storage unit 113, and the language analysis result and the number of characters generated by the language analysis unit 101. Based on the number of characters counted by the counting unit, the sentence indicated by the input text may be edited as necessary. Even if it does in this way, it is possible to acquire the effect similar to said each embodiment.
  • FIG. 16 is a block diagram showing a configuration example of a text generation device according to the present invention.
  • the present embodiment provides the present invention to a text generation device 200 for editing input text so that it can be more easily understood when speech synthesis is performed when speech synthesis processing is performed by another device. It is an example.
  • the text generation device 200 edits and outputs the synthesized text so that it is easier for the listener to understand when synthesizing the speech without changing the semantic content of the original text. As shown in FIG.
  • the text generation device 200 is different in that the text generation device 200 includes a text output unit 201 instead of the speech synthesis unit 104 included in the speech synthesis device 100 of the embodiment described above.
  • the method for editing the text may be the same as that of the speech synthesizer 100 described in each embodiment.
  • the text output unit 201 outputs the result edited by the language analysis result editing unit 103 as text for synthesized speech.
  • the edited text may be output as text format information, or may be output as a language analysis result for the edited text, or may be output in an easy-to-read format (for example, kanji or kana mixed) Sentence).
  • FIG. 17 is a flowchart showing an operation example of this embodiment.
  • the same operations steps S101 to S104 as those in the first embodiment shown in FIG.
  • the text output unit 201 outputs the edited sentence as text. (Step S301).
  • the text output unit 201 is provided instead of the speech synthesizer 104 is described as an example in the first embodiment, but the present embodiment is the first embodiment.
  • the present invention can be applied not only to the form but also to the second to fourth embodiments.
  • the synthesized speech DB 111 can be omitted.
  • the text output unit 201 while providing the speech synthesis unit 104. In such a case, it is possible to generate and display a text that is a sentence of the synthesized voice together with the synthesized voice.
  • the present invention is, for example, a synthesized voice system for generating a manual of a home appliance or the like, and a voice manual system for generating a synthesized voice that is easy to understand for a user, a child, an elderly person, or the like who performs another work. It can be suitably applied to navigation systems and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

 入力されたテキストの内容を、聴取者が理解しやすい形で発声させることを可能とする。入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための音声合成装置であって、入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する編集規則記憶手段と、前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する文章編集手段とを備えたことを特徴とする。

Description

音声合成装置、テキスト生成装置およびその方法並びにプログラム
 本発明は、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための音声合成装置、テキスト生成装置およびその方法並びにプログラムに関する。
 テキスト音声合成システムを利用して、テキストから音声ガイダンスを生成し、様々な機器を利用するユーザを補助するシステムは、多く実用化されている。このような用途の場合、テキストによっては、非常に聞き取りにくい音声が合成される可能性がある。
 例えば、新聞に記載されているニュースとテレビやラジオ等で読み上げられるニュースとでは、用いられる表現が大きく異なっている。新聞では限られた紙面を有効に使えるように熟語等が多用されており読み上げには適さない表現となっている。一方、テレビやラジオ等では音声で聞き取りやすいような表現が使われている。また、同じニュースでも子供向けと大人向けでは表現が異なる。従って、出力される合成音声を聴取者にとってより内容を理解しやすい音声とするためには、テキストを変更する技術が必要である。
 例えば、特許文献1には、意味が難解である部分や、発音が聞き取りにくい部分、同音異義語が存在する部分を特定し、平易な文に置換したり、音響パラメータを変化させる音声合成装置が記載されている。
 また、例えば、特許文献2には、記述文形式テキストを入力し、言語解析を制御しながら行い口語文形式テキストを自動生成する口語文形式テキスト作成装置が記載されている。なお、特許文献2には、さらに自動生成した口語文形式テキストを表示し、この表示に基づいてユーザからの修正等の指示を受け、修正を行う旨の記載もある。
 また、例えば、特許文献3には、任意のテキストを音声出力する際に、規定の長さ以内のカンマまたは関係詞または前置詞をキーワードとして分断し、分断された一区切り毎に合成音声出力を行う電子機器が記載されている。
特開平10-171485号公報 特開2002-023786号公報 特開2006-209031号公報
 しかし、特許文献1や特許文献2に記載されている方法では、音声として聞くことが容易であるかを考慮してテキストが用意されていないと、非常に冗長な文が生成されてしまうという問題がある。人間の短期記憶能力には限界があり、特に老人や子供、または合成音声に慣れていない聴取者や作業をしながら聞く聴取者にとっては、1文が長くなると最初の情報を忘れてしまう可能性が高い。
 なお、特許文献3に記載されている方法を適用すれば、合成音声の冗長化は防げるかもしれない。しかし、合成音声の冗長化を防止しただけでは、分割した文が不自然な表現となる可能性が高く、結果として聴取者側での文脈の理解を妨げることになる場合もある。
 そこで、本発明は、入力されたテキストの内容を、聴取者が理解しやすい形で発声させることが可能な音声合成装置、テキスト生成装置およびそれに用いる方法並びにプログラムを提供することを目的とする。
 本発明による音声合成装置は、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための音声合成装置であって、入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する編集規則記憶手段と、前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する文章編集手段とを備えたことを特徴とする。
 また、本発明によるテキスト生成装置は、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するためのテキスト生成装置であって、入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する編集規則記憶手段と、前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、かつ分割後の各文末を編集する文章編集手段とを備えたことを特徴とする。
 また、本発明による合成音声生成用文章編集方法は、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための合成音声生成用文章編集方法であって、入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集することを特徴とする。
 また、本発明による合成音声生成用文章編集プログラムは、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための合成音声生成用文章編集プログラムであって、コンピュータに、入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する文章編集処理を実行させることを特徴とする。
 本発明によれば、入力されたテキストの内容を、聴取者が理解しやすい形で発声させることが可能となる。
本発明による音声合成装置の構成例を示すブロック図である。 本発明による音声合成装置の他の構成例を示すブロック図である。 第1の実施形態による音声合成装置の構成例を示すブロック図である。 第1の実施形態の音声合成装置の動作例を示すフローチャートである。 言語解析部101の一構成例を示すブロック図である。 言語解析結果の一例を示す説明図である。 言語解析結果編集部103および編集規則記憶部113の一構成例を示すブロック図である。 文Aの分割例と時間長との関係を示す説明図である。 文Aの他の分割例を示す説明図である。 第2の実施形態による音声合成装置の構成例を示すブロック図である。 第3の実施形態による音声合成装置の構成例を示すブロック図である。 第3の実施形態の音声合成装置の動作例を示すフローチャートである。 係り受け構造の推定例を示す説明図である。 第3の実施形態による文Aの分割例を示す説明図である。 第4の実施形態による音声合成装置の構成例を示すブロック図である。 第5の実施形態によるテキスト生成装置の構成例を示すブロック図である。 第5の実施形態のテキスト生成装置の動作例を示すフローチャートである。
符号の説明
 11 編集規則記憶手段
 12 文章編集手段
 13 言語解析手段
 14 係り受け解析手段
 15 音響特徴量推定手段
 16 条件入力手段
 17 時間長推定手段
 100 音声合成装置
 101 言語解析部
 1011 解析処理部
 1012 形態素解析モデル
 1013 辞書記憶部
 102 時間長推定部
 103 言語解析結果編集部
 1031 同義語変換部
 1032 文分割部
 1033 文末変換部
 104 音声合成部
 105 音響特徴量推定部
 106 係り受け解析部
 107 文字数計数部
 111 合成音声用データベース(合成音声用DB)
 112 時間長条件記憶部
 113 編集規則記憶部
 1131 同義語辞書記憶部
 1132 分割規則記憶部
 1133 文末表現規則記憶部
 114 文字数条件記憶部
 200 テキスト生成装置
 201 テキスト出力部
 以下、本発明の実施形態を図面を参照して説明する。図1は、本発明による音声合成装置の構成例を示すブロック図である。図1に示す音声合成装置は、入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための音声合成装置であって、編集規則記憶手段11と、文章編集手段12とを備える。
 編集規則記憶手段11は、入力テキストが示す文章に含まれる一文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する。
 例えば、編集規則記憶手段11には、分割箇所となりうる箇所を規定した分割規則と、前記分割規則に従って分割した際の分割後の各文末の表現を変換するための文末表現変換規則とを含む編集規則が記憶される。また、例えば、編集規則記憶手段11は、さらに同義語辞書を記憶するようにしてもよい。
 文章編集手段12は、前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する。なお、本発明において、"文章"という表現を、文字を連ねて表現されるものの総称として用いている。従って、必ずしも複数の文からなる構成に限定されるものではない。
 また、文章編集手段12は、当該文章編集手段12による編集後のテキストから生成される合成音声の時間長または文字数が、各文間での差が最も小さくなるように同じとなるように分割してもよい。なお、同義語辞書が記憶されている場合には、該同義語辞書との照合により、入力テキストが示す文章に用いられている表現をより簡便な他の表現に変換する際に、変換後の合成音声の時間長または文字数に基づいて、変換候補を絞り込むことも可能である。また、編集後のテキストから生成される合成音声の時間長が、与えられた時間長の条件を満たさない場合には、合成音声を生成する際に使用するパラメータであって合成音声の速度に関わるパラメータを指定してもよい。
 また、本発明による音声合成装置は、図2に示すような構成を取ることも可能である。例えば、音声合成装置は、入力テキストに対し言語解析を行う言語解析手段13を備えていてもよい。そのような場合には、文章編集手段12は、前記言語解析手段13による解析結果として得られる入力テキストの文章構造(例えば、入力テキストが示す文章における形態素の構造)と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割し、かつ分割後の各文末を編集してもよい。なお、この場合の編集規則には、前記言語解析手段13の解析結果として得られる文章構造の要素を示す情報(例えば、品詞情報等)を用いて、分割箇所となりうる箇所を規定した分割規則と、分割の際の区切りとなる要素がとりうる表現形式に対し、変換後の表現形式を規定した文末表現変換規則とが含まれる。
 また、文章編集手段12は、例えば、合成音声処理を行う手段(音声合成手段)が入力テキストに対する言語解析結果を入力とする場合には、編集後の文章における区切りおよび文末表現のとおりに発声される合成音声が生成されるよう、入力テキストに対する言語解析結果を編集してもよい。例えば、発音記号列や区切りの情報等を編集後の文章に合わせて変更すればよい。
 また、例えば、音声合成装置は、入力テキストが示す文章の係り受け構造を解析する係り受け解析手段14を備えていてもよい。そのような場合には、文章編集手段12は、係り受け解析手段14による解析結果として得られる入力テキストの係り受け構造に基づき、係り受けが維持できる単位を最小構成にして、前記入力テキストが示す文章に含まれる1文を分割してもよい。なお、この方法は、上記文章構造に基づいて分割を試みた結果、時間長または文字数の条件を満たすことができない場合に、さらにその文を分割するときに利用する等の組み合わせた適用方法が可能である。
 また、例えば、音声合成装置は、入力テキストから生成される合成音声の音響的な特徴量を推定する音響特徴量推定手段15を備えていてもよい。そのような場合には、文章編集手段12は、音響特徴量推定手段15によって推定された入力テキストの音調的な特徴量と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割してもよい。なお、この方法は、ある方法で分割を試みた結果、時間長または文字数の条件を満たすことができない場合に、さらにその文を分割するときに利用する等の組み合わせた適用方法が可能である。
 また、例えば、音声合成装置は、時間長または文字数の条件を、ユーザ操作に応じて入力する条件入力手段16を備えていてもよい。そのような場合は、文章編集手段12は、条件入力手段16によって入力される時間長または文字数の条件に基づいて分割、編集すればよい。
 また、例えば、音声合成装置は、入力テキストから生成される合成音声の時間長を推定する時間長推定手段17を備えていてもよい。時間長推定手段17は、例えば、合成音声を生成する際に使用するパラメータに基づいて、入力テキストから生成される合成音声の時間長を推定してもよい。なお、該パラメータには少なくとも発話速度が含まれているものとする。ここで、時間長推定手段17が時間長を推定する合成音声には、入力テキストが示す文章に対し音声合成した場合の合成音声に限らず、文章編集手段12による編集のために指定された文章(各文ごとや、編集途中の文章等)を含む。
 なお、編集規則記憶手段11,文章編集手段12,言語解析手段13,係り受け解析手段14,音響特徴量推定手段15,時間長推定手段17は、例えば、音声合成装置が備えるCPU等のプログラムに従って動作するプロセッサによって実現される。また、条件入力手段16は、例えば、音声合成装置が備えるマウスやキーボード等の入力装置と、該入力装置を介して情報を受け付けるCPU等によって実現される。
 以下、より具体的な実施形態について説明する。
実施形態1.
 図3は、本発明の第1の実施形態による音声合成装置の構成例を示すブロック図である。図3に示すように、本実施形態の音声合成装置100は、言語解析部101と、時間長推定部102と、言語解析結果編集部103と、音声合成部104と、合成音声用データベース111(以下、合成音声用DB111という。)と、時間長条件記憶部112と、編集規則記憶部113とを備える。
 言語解析部101は、入力されたテキストに対し、言語解析を行う。言語解析の手法は、例えば、形態素解析による言語解析手法を用いればよい。なお、ChaSenといった既存の日本語形態素解析ツールを利用することも可能である。
 時間長推定部102は、入力テキストから生成される合成音声の時間長を推定する。時間長推定部102は、例えば、指定された文章(言語単位は問わない)に対して、該文章から合成音声を生成した場合の該合成音声の時間長を推定する。なお、指定される文章としては、入力テキストが示す文章全体の場合もありうるし、該文章に含まれる各文の場合や、言語解析結果編集部103による編集途中の文章ブロックであったり、編集後の文である場合もありうる。なお、時間長推定部102は、例えば、合成音声用DB111に記憶されている音声合成パラメータ(より具体的には、発話速度等)と、入力テキストの文字数等とに基づいて、合成音声の時間長を推定する。
 合成音声用DB111は、音声合成部104に対し設定されている音声合成パラメータ(合成音声を生成するために必要な各種パラメータ値)を記憶する。なお、音声合成にはどのような方式を用いてもよいが、音声合成用パラメータは自由に設定されることが望ましい。
 言語解析結果編集部103は、後述する時間長条件記憶部112に記憶されている時間長条件および編集規則記憶部113に記憶されている編集規則に従い、入力テキストに対する言語解析結果として得られた情報を編集することにより、編集後の文章を示す情報を音声合成部104に与える。言語解析結果編集部103は、具体的には、編集規則に従いつつ、編集後の言語解析結果により生成される合成音声が設定されている時間長条件に合致するように、言語解析結果における文章の区切りの情報を変更し、さらに各々の区切りの末尾で文末として自然となるように文末表現を変更する。なお、言語解析結果編集部103は、図1および図2に示す文章編集手段12に相当する処理部である。
 時間長条件記憶部112は、本装置に対し設定されている時間長条件を記憶する。時間長条件は、聴取者が理解しやすいとされる合成音声の時間長を規定したものであって、具体的には、合成音声を出力する際に一区切りとする音声の時間長の条件を示す情報である。時間長条件は、例えば、「5秒以下」といった閾値設定でもよいし、「2秒以上7秒以下」といった範囲指定でもよい。
 編集規則記憶部113は、入力テキストが示す文章に含まれる一文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する。編集規則として、例えば、同じ意味内容を保持しつつ表現をより理解しやすく変換するための同義語辞書や、分割できる箇所を規定する分割規則、分割後の各々の文章ブロックが正しい文として完結するよう文末表現を変更するための規則などを記憶すればよい。
 音声合成部104は、言語解析結果編集部103によって編集された言語解析結果(編集後の文章を示す情報)を入力として合成音声を実施し、音声波形を生成する。なお、音声合成部104には、言語解析結果編集部103から、合成音声を生成する際の区切りとなる情報を含む編集後の文章全体を示す情報が一括して入力されるか、一連の合成音声として生成する文章を示す情報が順次入力されるものとする。なお、編集後の文章を示す情報は、編集後の文章における区切りおよび文末表現のとおりに発声される合成音声が生成されるような情報であればよく、必ずしも言語解析結果のデータ形式でなければならないわけではない。なお、音声合成部104の入力形式に合っていれば、例えば、発音記号列であってもよい。
 以下、本実施形態の動作について説明する。図4は、本実施形態の音声合成装置の動作例を示すフローチャートである。図4に示すように、まず、処理対象とするテキストが入力されると(ステップS101)、言語解析部101は、入力されたテキストの言語を解析する(ステップS102)。
 次に、時間長推定部102は、言語解析部101による言語解析結果に基づき、入力テキストが示す文章を音声合成した場合の該合成音声の時間長を推定する(ステップS103)。なお、編集後の文章の時間長を確認する場合には、ステップS104の処理後にステップS103の処理を繰り返して実行すればよい。
 次に、言語解析結果編集部103は、言語解析部101による言語解析結果と、時間長推定部102による推定時間長とに基づき、編集規則記憶部113に記憶されている編集規則に従いつつ、編集後の言語解析結果により生成される合成音声が時間長条件記憶部112に記憶されている時間長条件に合致するように、言語解析結果を編集する(ステップS104)。
 最後に、音声合成部104は、ステップS104で編集された言語解析結果を元に音声合成処理を行い、順次音声波形を出力する(ステップS105)。
 以下、本実施形態における文章編集動作についてより具体的に説明する。まず、言語解析部101による言語解析について説明する。図5は、言語解析部101の一構成例を示すブロック図である。図5に示すように、言語解析部101は、解析処理部1011と、形態素解析モデル1012と、辞書記憶部1013とを含んでいてもよい。本例では、解析処理部1011は、辞書記憶部1013に記憶されている辞書との照合により、入力テキストが示す文章を形態素に分割する。このとき、各形態素に対しては品詞等の情報が付加されている。そして、形態素解析モデル1012に基づき、結果得られた品詞の並びから文法的に最も確からしい構造(並び)を導出する。言語解析部101は、この導出した形態素の構造を、言語解析結果として出力する。形態素解析モデル1012は、例えば、隠れマルコフモデル(HMM,Hidden Markov Model )による確率的言語モデルであってもよい。なお、形態素解析モデル1012の代わりに、慣用句や品詞の並びについて規定した規則を用いることも可能である。
 図6は、言語解析結果の一例を示す説明図である。図6に示す例では、カレーの作り方を説明した文章に含まれる「ジャガイモとにんじんを綺麗に洗い、皮をむき、1口大に切り、ジャガイモは水にさらす。」という文Aに対して、形態素解析を行った結果を示している。図6では、文Aにおける形態素の構造を形態素と品詞の組によって示す言語解析結果を出力している。図6に示す例では、文Aが、「じゃがいも(名詞)/と(格助詞)/にんじん(名詞)/を(格助詞)/きれいに(形容動詞)/あらい(動詞)/、/かわ(名詞)/を(格助詞)/むき(動詞)/、/ひとくち(名詞)/だい(名詞)/に(格助詞)/きり(動詞)/、/じゃがいも(名詞)/は(副助詞)/みず(名詞)/に(格助詞)/さらす(動詞)。」という形態素の組み合わせによって構成されている旨の解析結果が示されている。
 図7は、言語解析結果編集部103および編集規則記憶部113の一構成例を示すブロック図である。図7に示すように、言語解析結果編集部103は、同義語変換部1031と、文分割部1032と、文末変換部1033とを含んでいてもよい。また、編集規則記憶部113は、同義語辞書記憶部1131と、分割規則記憶部1132と、文末表現変換規則記憶部1133とを含んでいてもよい。なお、本例では、同義語変換部1031,文分割部1032および文末変換部1033は、それぞれ入力テキストに対する言語解析結果として得られる情報(発音記号列や区切りの情報)を変更することにより、文の分割や文末表現の変更を行う。
 ここで、同義語辞書記憶部1131は、同じ意味内容を保持しつつ表現をより理解しやすく変換するための同義語辞書を記憶する。同義語辞書は、例えば、同じ意味をもつ用語について、それらを対応づけた情報である。また、分割規則記憶部1132は、分割できる箇所を規定した分割規則を記憶する。分割規則は、例えば、言語解析結果として得られる構文構造における要素を特定する情報(品詞の情報等)を用いて、分割する際の区切りとなりうる要素を示す情報である。文末表現変換規則記憶部1133は、分割規則に従って分割した際の分割後の各々の文章ブロックが正しい文として完結するよう文末表現を変換するための文末表現変換規則を記憶する。文末表現変換規則は、例えば、分割した際に文末になりうる表現形式に対し、変換後の表現形式を対応づけた変換テーブルであってもよい。
 同義語変換部1031は、同義語辞書記憶部1131に記憶されている同義語辞書を用いて、内容が理解しがたい言葉を理解しやすい言葉に変換する。文Aの場合、"さらす"という言葉は、料理の経験にないユーザにとってはどのような動作を指しているのか分かりづらいことが想定される。本例では、「さらす(動詞)」に対応づけて「(水に)つける」という言葉を、同義語辞書記憶部1131に登録しておき、同義語変換部1031が、この同義語辞書記憶部1131を検索することで、「(水に)つける」という言葉に変換を行う。具体的には、言語解析結果における文章の該当個所の情報を、変換後の言葉を示す情報に変更すればよい。
 文分割部1032は、時間長条件および分割規則記憶部1132に記憶されている分割規則に従い、入力テキストが示す文章に含まれる各文を必要に応じて分割する。具体的には、言語解析結果における文章の区切りの情報を変更すればよい。図8は、文Aの分割例と時間長との関係を示す説明図である。例えば、文Aに対して、図8において(1)で示すような時間長の推定結果がでたとする。また、時間長条件として、「5秒未満」という閾値設定がなされているものとする。
 図8の(1)で示す例では、入力テキストである文Aの時間長は9.25秒と推定されているので、時間長条件に合致していないことがわかる。このような場合には、文分割部1032は、文Aを分割する。
 なお、図8の(2)に示すように、同義語変換部1031による変換後の文章に対して、時間長推定部102に時間長を再推定させ、その結果に対して編集を行うようにしてもよい。
 ここでは、分割規則として、分割規則記憶部1132に「動詞のみを区切りとして分割する」という規則が記憶されているものとする。この場合、文Aに対しては、言語解析結果より、動詞である「あらい」,「むき」,「きり」,「つける(さらす)」が区切り候補となる。
 文分割部1032は、例えば、図8の(3)に示すように、文Aを、[a]:「じゃがいも/と/にんじん/を/きれいに/あらい/、/かわ/を/むき/、/ひとくち/だい/に/きり/、」と、[b]:「じゃがいも/は/みず/に/つける。」の2つに分割してみる。ここで、分割した[a]と[b]それぞれについて、時間長推定部102にフィードバックし、時間長を再推定させた結果、[a]が6.5秒、[b]が2.5秒であったとする。文分割部1032は、[a]が閾値以上、[b]が閾値未満であるので、[b]はこれ以上の分割を要せずと判断し、[a]に対してのみ再度分割を試みればよい。
 文分割部1032は、例えば、図8の(4)に示すように、[a]をさらに、[c]:「じゃがいも/と/にんじん/を/きれいに/あらい/、/かわ/を/むき/、」と、[d]:「ひとくち/だい/に/きり/、」に分割してみる。そして、これらについて、時間長推定部102にフィードバックし、時間長を再推定させる。本例では、[c]が4.95秒、[d]が1.5秒であったとする。このような場合には、文分割部1032は、[c],[d]とも閾値未満であるので、これ以上の分割を要せずと判断し、分割処理を終了すればよい。
 文末変換部1033は、文末表現変換規則記憶部1133に記憶されている文末表現変換規則に従い、文分割部1032が分割した各々の文章について、その末尾が文末として自然になるように文末表現を変更する。文末表現変換規則としては、分割の際の区切りとなる要素がとりうる表現形式(ここでは、動詞の活用形)に対し、変換後の表現形式(終止形への活用方法)を規定した変換テーブルが記憶されていればよい。例えば、五段連用形の動詞に対しては、末尾の「い音」を「う音」に変更する旨の情報を対応づける。文末変換部1033は、このような文末表現の変換テーブルに基づき、「あらい(動詞:連用/五段)」を「あらう」という終止形に変換すればよい。本例では、[c]は、[c]':「じゃがいも/と/にんじん/を/きれいに/あらい/、/かわ/を/むく。」と変換される。また[d]は、[d]':「ひとくち/だい/に/きる。」と変換される。なお、[b]は、元々終止形であるから、[b]:「じゃがいも/は/みず/に/つける。」のままでよい。このようにして、文末変換部1033は、文Aの分割後の3つの文章ブロックについて、[c]'と「d」'と[b]のように文末表現を変更する。具体的には、言語解析結果における文章の該当個所の情報を、変更後の文末表現を示す情報に変更すればよい。
 このように編集された言語解析結果は、編集後の文章として意図した文の区切りおよび文末表現をもつ合成音声を生成させる情報として音声合成部104に入力され、文Aについては、編集後の[c]',「d」',[b]に対応する合成音声が順次生成されて出力される。
 なお、本例では、分割の度に時間長推定部102に分割結果をフィードバックし、時間長の再推定を行わせているが、予め区切り候補を元に分割後の時間長を推定させておいてもよい。このような場合には、文分割部1032は、最適化手法等を用いて、時間長条件をみたす分割方法を求めることも可能である。
 最適化手法を用いる場合には、さらに、図9に示すように、分割後の各文章を合成した際の合成音声の時間長が、可能な限り同じ長さとなるように分割することも可能である。すなわち、文分割部1032は、区切り候補を元に推定させた各文章ブロックの時間長に基づき、合成した際の合成音声の時間長の差(一区切りとした各文章ブロック間での差)が最も小さくなるように分割するようにすればよい。なお、各文間での差については、さらに、同義語変換部1031が同義語変換候補を絞り込むといった方法も考えられる。これにより、ユーザは常にほぼ一定の長さの音声を聞くことができ、テンポを乱されずに音声を聞くことができるようになる。図9は、文Aの他の分割例を示す説明図である。
 また、同義語変換部1031は、変換の際に変換候補に対し時間長推定を行わせ、時間長が最も短くなるような候補を検索することも考えられる。なお、時間長推定を行わせずに、文字数によって最も短くなるような候補を選択することも可能である。
 また、分割規則の例としては、上記で示した「動詞を区切りにする」といった規則の他にも、文末を終止形にする場合には、形容詞や形容動詞等、活用形として終止形をもつ品詞を区切り候補にする旨の規則が考えられる。また、文末を体言止めにするという文末表現規則が規定されている場合には、名詞を区切り候補に含む場合もありうる。更には、例えば、「河童の川流れ」や「弘法にも筆の誤り」といったように同義のことわざ等を変換対象の要素とすることも可能である。なお、「文末を動詞または形容詞とする」といったように、こられの要素のうち複数を変換対象とすることも可能である。
 他にも、「3文に分割する」といったように分割数を指定した規則も考えられる。また、「時間長条件を満たさなくても、3文以内にしか分割しない」や「第1に動詞を区切りにし、それでも時間長条件を満たして分割することが不可能である場合には、他に活用形として終止形を持つ品詞を区切りにする」といった時間長条件との関係を規定したりで、時間長条件と組み合わせた規則を規定することも可能である。
 また、本例では、文末変換部1033において、各文の文末を終止形に変換したが、他の表現へ変換してもよい。例えば、文Aの例では、「洗おう」とか「切ろう」という表現に統一して変換することも可能である。他にも、「~したい」,「~してほしい」,「~しなさい」等、用途に応じて様々な表現を指定することも可能である。
 また、合成音声を生成する際に、分割後の各文の話速を変更させてもよい。例えば、時間長条件で「4秒以上5秒未満」といったような範囲指定がされていた場合に、各文の時間長が全て指定された範囲に収まるように話速を調整することも可能である。そのような場合には、文分割部1032は、分割規則を優先して入力テキストが示す文章に含まれる文を分割するようにし、文末変換部1033が文末を編集した後に、各々の文について時間長条件に合致するよう話速を決定する手段(例えば、話速決定部)を設ければよい。なお、この話速決定は、時間長推定部102が行ってもよい。
 以上のように、本実施形態によれば、与えられた時間長の条件を満たすような復号文の合成音声が生成されるように、言語解析された入力テキストが示す文章を分割し、分割した各文末を編集するので、入力テキストの意味を変えずに、理解しやすい合成音声を生成することができる。
 なお、ユーザが、時間長条件記憶部112に時間長を設定できるように、音声合成装置100は、時間長条件入力部を備えるようにしてもよい。そのような場合には、ユーザ毎に望む時間長の条件で、動作させることが可能となる。
実施形態2.
 次に、本発明の第2の実施形態について説明する。図10は、本発明の第2の実施形態による音声合成装置の構成例を示すブロック図である。図10に示すように、本実施形態では、図7に示す第1の実施形態と比べて、音響特徴量推定部105を備える点が異なる。
 音響特徴量推定部105は、言語解析結果に基づいて、入力テキストが示す文章に対し音声合成した際の音響的な特徴量(例えば、ピッチ周波数やピッチパタン、ケプストラム等のスペクトル情報、さらには、読み、アクセント位置、アクセント区切り等)を推定する。
 また、本実施形態では、文分割部1032は、さらに音響特徴量推定部105が推定した音響的特徴量を用いて、入力テキストが示す文章を分割する。なお、本実施形態の分割規則には、文章構造における要素を用いて分割箇所(区切り)となりうる箇所を規定する分割規則だけでなく、音響的な特徴量を用いて分割箇所となりうる箇所を規定する分割規則を用いることができる。例えば、分割後の各文末のアクセント型がなるべく一致するように分割する、ピッチパタンの形状が類似するように分類するといった旨の規則が考えられる。
 アクセント型が一致するように分割する例としては、例えば、「~帰り、~動いて、~耐える。」という表現を含む文であれば、「帰り」,「動いて」,「耐える」の終止形「帰る」,「動く」,「耐える」が、それぞれアクセント型が1型,2型,2型であるため、本来の文末である「耐える」のアクセント型と一致する「動く」を区切りとする。
 また、ピッチパタン形状の類似の判断については、例えば、分割箇所のアクセント句の、推定された合成音声のピッチパタンを時間方向に正規化し、それぞれについて原点からの周波数方向の二乗平均距離を求めることにより、判断できる。なお、求めた二乗平均距離が近ければ、類似していると判断すればよい。
 以上のように、本実施形態によれば、さらに音響的に聞きやすい合成音声を生成することが可能となる。なお、他の点については、第1の実施形態と同様でよい。
実施形態3.
 次に、本発明の第3の実施形態について説明する。図11は、本発明の第3の実施形態による音声合成装置の構成例を示すブロック図である。図11に示すように、本実施形態による音声合成装置は、図3に示す第1の実施形態と比べて、係り受け解析部106を備える点が異なる。また、言語解析結果編集部103が、さらに係り受け解析部106による解析結果に基づいて、入力テキストが示す文章に含まれる文を分割し、編集する点が異なる。
 係り受け解析部106は、入力テキストに対して係り受け構造の解析を行い、係り受け情報を生成する。なお、係り受け解析部106は、言語解析部101による解析結果を利用して、係り受け構造を解析してもよい。
 また、本実施形態では、文分割部1032は、時間長条件と、少なくとも係り受けを維持して分割する旨が規定された分割規則とに基づいて、係り受け解析部106が解析した係り受け構造を用いて、入力テキストが示す文章を分割する。なお、分割規則には、さらに、どの品詞を文末として区切る等の規定がされていてもよい。
 図12は、本実施形態の動作例を示すフローチャートである。なお、本例では、図4に示す第1の実施形態と同様の動作(ステップS101~S102,S103~S105)については、同じ符号を付し説明を省略する。
 図12に示すように、本実施形態では、言語解析部101が入力テキストの言語を解析したことを受けて(ステップS102)、係り受け解析部106が、さらに、入力テキストの係り受け構造を解析する(ステップS201)。
 次に、言語解析結果編集部103は、時間長条件記憶部112に記憶されている時間長条件と編集規則記憶部113に記憶されている編集規則と、言語解析部101による言語解析結果と、係り受け解析部106が解析した係り受け構造とに基づき、言語解析結果を編集する(ステップS104)。
 最後に、音声合成部104が、ステップS104で編集されたテキストに対し音声合成処理を行い、順次音声波形を出力する(ステップS105)。
 ここでは、第1の実施形態で示した文Aを例に用いて本実施形態の動作を説明する。係り受け解析部106は、図13に示すような係り受け構造を示す係り受け情報を、解析結果として出力したとする。図13は、係り受け構造の推定例を示す説明図である。図13に示す例では、例えば、「じゃがいもとにんじんをきれいにあらい」という部分に注目すると、「じゃがいも」と「にんじん」という名詞は並列関係であり、それぞれが「(きれいに)あらう」という動詞に係っている旨の係り受け構造が係り受け解析部106によって推定されていることが示されている。
 ここで、時間長条件として、「3秒未満になるように分割する」旨が規定されていたとする。文分割部1032は、仮に、上述した図8の(5)のように分割したとしても、[c]'が時間長条件を満たさない。また、図9のように分割したとしても、[g]が時間長条件を満たさない。このような場合には、文分割部1032は、係り受け情報を用いて、更に分割を行って時間長条件を満たすようにする。例えば、図12に示す例では、「じゃがいも」と「にんじん」は並列関係であり、それぞれが「(きれいに)あらう」に係っているという係り受け情報が得られる。この係り受け情報に基づき、係り受けが維持できる単位を最小構成にし、図14に示すように、[g]を、[i]:「じゃがいもをきれいにあらう。」(2.5秒)と、[j]:「にんじんをきれいにあらう。」(2.2秒)とに分割(厳密には再構築を含む)してもよい。具体的には、言語解析結果における文章の内容を示す情報と区切りの情報とを変更すればよい。
 このように、本実施形態によれば、単純に分割しただけでは、時間長条件を満たせない場合であっても、係り受け構造を利用して分割、再構築することで、意味内容を保持したままで時間長条件を満たすことができる可能性が高まる。
 なお、係り受け構造の解析を、言語解析結果を用いずに行う場合には、ステップS102の処理と、ステップS201の処理とを並列的に動作させることも可能である。
実施形態4.
 また、上記各実施形態では、音声合成した場合の時間長を、聴取者が理解しやすい文章の区切りの目安として用いているが、合成音声の時間長の代わりに、音声合成する文字数を用いることも可能である。具体的には、時間長推定部102と時間長条件記憶部112の代わりに、図15に示すように、入力テキストが示す文章の文字数を計数する文字数計数部107と、聴取者が理解しやすいとされる発話文字数を規定した文字数条件を記憶する文字数条件記憶部114とを備えるようにすればよい。
 また、言語解析結果編集部103が、その文字数条件記憶部に記憶されている文字数条件および編集規則記憶部113に記憶されている編集規則に従い、言語解析部101で生成された言語解析結果や文字数計数部によって計数された文字数を元に、必要に応じて入力テキストが示す文章を編集するようにすればよい。このようにしても、上記各実施形態と同様の効果を得ることが可能である。
実施形態5.
 次に、本発明の第4の実施形態について説明する。図16は、本発明によるテキスト生成装置の構成例を示すブロック図である。本実施形態は、音声合成処理を他の装置が行うような場合に、入力されたテキストを、音声合成をした場合により理解しやすいように編集するためのテキスト生成装置200に本発明を提供した例である。テキスト生成装置200では、元々のテキストの意味内容を変えずに、音声合成した際に聴取者がより理解しやすいように編集して出力する。図16に示すように、本実施形態によるテキスト生成装置200は、上記で示した実施形態の音声合成装置100で含まれていた音声合成部104の代わりに、テキスト出力部201を備える点が異なる。なお、テキストを編集する方法については、各実施形態で説明した音声合成装置100と同様でよい。
 テキスト出力部201は、言語解析結果編集部103によって編集された結果を、合成音声用のテキストとして出力する。例えば、単純に編集後の文章をテキスト形式で示す情報にして出力してもよいし、編集後の文章に対する言語解析結果として出力してもよいし、また、読みやすい形式(例えば、漢字かな混じり文)に変換して出力してもよい。
 図17は、本実施形態の動作例を示すフローチャートである。なお、本例では、図4に示す第1の実施形態と同様の動作(ステップS101~S104)については、同じ符号を付し説明を省略する。
 図17に示すように、本実施形態では、言語解析結果編集部103が、入力テキストが示す文章の編集をしおえると(ステップS104)、テキスト出力部201は、編集後の文章をテキストとして出力する(ステップS301)。
 以上のように、本実施形態によれば、合成音声を生成する際の前処理として、入力されたテキストを、その意味内容を変えずに、合成音声した際に聴取者がより理解しやすい形に編集することが可能となる。
 なお、図16に示す例では、第1の実施形態に対して音声合成部104の代わりに、テキスト出力部201を備える場合を例に説明しているが、本実施形態は、第1の実施形態に限らず、第2~第4の実施形態に対しても適用可能である。なお、本実施形態を第4の実施形態に対して適用した場合には、合成音声用DB111を省略することも可能である。
 また、音声合成部104を備えつつ、テキスト出力部201を備えることも可能である。そのような場合には、合成音声とともに、その合成音声を文章化したテキストを生成させ、表示するようにする、といったことが可能となる。
 この出願は、2008年2月27日に出願された日本出願特願2008―46435を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
 本発明は、例えば、家電製品のマニュアル等を音声化するための合成音声システムや、別の作業を行っているユーザ、子供,高齢者等に対し理解のし易い合成音声を生成する音声マニュアルシステムや、ナビゲーションシステムなどに好適に適用可能である。

Claims (35)

  1.  入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための音声合成装置であって、
     入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する編集規則記憶手段と、
     前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する文章編集手段とを備えた
     ことを特徴とする音声合成装置。
  2.  編集規則記憶手段には、分割箇所となりうる箇所を規定した分割規則と、前記分割規則に従って分割した際の分割後の各文末の表現を変換するための文末表現変換規則とを含む編集規則が記憶される
     請求項1に記載の音声合成装置。
  3.  入力テキストに対し言語解析を行う言語解析手段を備え、
     編集規則記憶手段には、前記言語解析手段の解析結果として得られる文章構造の要素を示す情報を用いて、分割箇所となりうる箇所を規定した分割規則と、分割の際の区切りとなる要素がとりうる表現形式に対し、変換後の表現形式を規定した文末表現変換規則とを含む編集規則が記憶され、
     文章編集手段は、前記言語解析手段による解析結果として得られる入力テキストの文章構造と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割し、かつ分割後の各文末を編集する
     請求項1または請求項2に記載の音声合成装置。
  4.  文章編集手段は、編集後の文章における区切りおよび文末表現のとおりに発声される合成音声が生成されるよう、入力テキストに対する言語解析結果を変更する
     請求項3に記載の音声合成装置。
  5.  文章編集手段は、生成される合成音声の各区切り間での時間長または文字数の差が最も小さくなるように分割する
     請求項1から請求項4のうちのいずれか1項に記載の音声合成装置。
  6.  入力テキストが示す文章の係り受け構造を解析する係り受け解析手段を備え、
     文章編集手段は、前記係り受け解析手段による解析結果として得られる入力テキストが示す文章の係り受け構造に基づき、係り受けが維持できる単位を最小構成にして、前記入力テキストが示す文章に含まれる1文を分割する
     請求項1から請求項5のうちのいずれか1項に記載の音声合成装置。
  7.  入力テキストから生成される合成音声の音響的な特徴量を推定する音響特徴量推定手段を備え、
     編集規則記憶手段には、音響的な特徴量を用いて、分割箇所となりうる箇所を規定した分割規則を含む編集規則が記憶され、
     文章編集手段は、前記音響特徴量推定手段によって推定された入力テキストの音調的な特徴量と、入力テキストが示す文章に基づき予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割する
     請求項1から請求項6のうちのいずれか1項に記載の音声合成装置。
  8.  文章編集手段は、編集後の文章に対し生成される合成音声の時間長が、与えられた時間長の条件を満たさない場合には、合成音声を生成する際に使用するパラメータであって合成音声の速度に関わるパラメータを指定する
     請求項1から請求項7のうちのいずれか1項に記載の音声合成装置。
  9.  時間長または文字数の条件を、ユーザ操作に応じて入力する条件入力手段を備えた
     請求項1から請求項8のうちのいずれか1項に記載の音声合成装置。
  10.  編集規則記憶手段には、さらに同義語辞書が記憶され、
     文章編集手段は、前記同義語辞書との照合により、入力テキストが示す文章に用いられている表現をより簡便な他の表現に変換する際に、変換後の合成音声の時間長または文字数に基づいて、変換候補を絞り込む
     請求項1から請求項9のうちのいずれか1項に記載の音声合成装置。
  11.  入力テキストから生成される合成音声の時間長を推定する時間長推定手段を備えた
     請求項1から請求項10のうちのいずれか1項に記載の音声合成装置。
  12.  時間長推定手段は、合成音声を生成する際に使用するパラメータに基づいて、時間長を推定し、
     前記パラメータには少なくとも発話速度が含まれる
     請求項11に記載の音声合成装置。
  13.  入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するためのテキスト生成装置であって、
     入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則を記憶する編集規則記憶手段と、
     前記編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、かつ分割後の各文末を編集する文章編集手段とを備えた
     ことを特徴とするテキスト生成装置。
  14.  入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための合成音声生成用文章編集方法であって、
     入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する
     ことを特徴とする合成音声生成用文章編集方法。
  15.  編集規則には、分割箇所となりうる箇所を規定した分割規則と、前記分割規則に従って分割した際の分割後の各文末の表現を変換するための文末表現変換規則とが含まれる
     請求項14に記載の合成音声生成用文章編集方法。
  16.  編集規則には、言語解析結果として得られる文章構造の要素を用いて、分割箇所となりうる箇所を規定した分割規則と、分割の際の区切りとなる要素がとりうる表現形式に対し、変換後の表現形式を規定した文末表現変換規則とが含まれ、
     入力テキストに対し言語解析を行い、
     解析結果として示される入力テキストの文章構造と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する
     請求項14または請求項15に記載の合成音声生成用文章編集方法。
  17.  編集後の文章における区切りおよび文末表現のとおりに発声される合成音声が生成されるよう、入力テキストに対する言語解析結果を変更する
     請求項16に記載の合成音声生成用文章編集方法。
  18.  生成される合成音声の各区切り間での時間長または文字数の差が最も小さくなるように分割する
     請求項14から請求項17のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  19.  入力テキストが示す文章の係り受け構造を解析し、
     解析結果として得られる入力テキストの係り受け構造に基づき、係り受けが維持できる単位を最小構成にして、前記入力テキストが示す文章に含まれる1文を分割する
     請求項14から請求項18のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  20.  編集規則には、音響的な特徴量を用いて、分割箇所となりうる箇所を規定した分割規則が含まれ、
     入力テキストから生成される合成音声の音響的な特徴量を推定し、
     推定された入力テキストの音調的な特徴量と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割する
     請求項14から請求項19のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  21.  編集後の文章に対し生成される合成音声の時間長が、与えられた時間長の条件を満たさない場合には、合成音声を生成する際に使用するパラメータであって合成音声の速度に関わるパラメータを指定する
     請求項14から請求項20のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  22.  時間長または文字数の条件を、ユーザ操作に応じて入力する
     請求項14から請求項21のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  23.  同義語辞書を記憶しておき、
     前記同義語辞書との照合により、入力テキストが示す文章に用いられている表現をより簡便な他の表現に変換する際に、変換後の合成音声の時間長または文字数に基づいて、変換候補を絞り込む
     請求項14から請求項22のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  24.  入力テキストから生成される合成音声の時間長を推定する
     請求項14から請求項23のうちのいずれか1項に記載の合成音声生成用文章編集方法。
  25.  入力されたテキストから該テキストが示す文章の内容を伝達する合成音声を生成するための合成音声生成用文章編集プログラムであって、
     コンピュータに、
     入力テキストが示す文章に含まれる1文を、意味内容を変更せずに複数に分割し、かつ分割した各々を正しい文として完結させるための規則である編集規則に従いつつ、生成される合成音声の一区切りが与えられた時間長または文字数の条件を満たすように、前記入力テキストが示す文章に含まれる1文を分割し、分割後の各文末を編集する文章編集処理
     を実行させるための合成音声生成用文章編集プログラム。
  26.  少なくとも分割箇所となりうる箇所を規定した分割規則と、前記分割規則に従って分割した際の分割後の各文末の表現を変換するための文末表現変換規則とを含む編集規則を用いる
     請求項25に記載の合成音声生成用文章編集プログラム。
  27.  言語解析結果として得られる文章構造の要素を用いて、分割箇所となりうる箇所を規定した分割規則と、分割の際の区切りとなる要素がとりうる表現形式に対し、変換後の表現形式を規定した文末表現変換規則とを含む編集規則を用い、
     コンピュータに、
     入力テキストに対し言語解析を行う処理を行わせ、
     文章編集処理で、解析結果として示される入力テキストの文章構造と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割させ、分割後の各文末を編集させる
     請求項25または請求項26に記載の合成音声生成用文章編集プログラム。
  28.  コンピュータに、
     文章変種処理で、編集後の文章における区切りおよび文末表現のとおりに発声される合成音声が生成されるよう、入力テキストに対する言語解析結果を変更させる
     請求項25から請求項27のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  29.  コンピュータに、
     文章編集処理で、生成される合成音声の各区切り間での時間長または文字数の差が最も小さくなるように分割させる
     請求項25から請求項28のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  30.  コンピュータに、
     入力テキストが示す文章の係り受け構造を解析する処理を実行させ、
     文章編集処理で、解析結果として得られる入力テキストの係り受け構造に基づき、係り受けが維持できる単位を最小構成にして、前記入力テキストが示す文章に含まれる1文を分割させる
     請求項25から請求項29のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  31.  音響的な特徴量を用いて、分割箇所となりうる箇所を規定した分割規則を含む編集規則を用い、
     コンピュータに、
     入力テキストから生成される合成音声の音響的な特徴量を推定する処理を実行させ、
     文章編集処理で、推定された入力テキストの音調的な特徴量と、入力テキストから予測される合成音声の時間長または計測される文字数とを元に、前記編集規則に従いつつ、与えられた時間長または文字数の条件に合致するように、前記入力テキストが示す文章に含まれる1文を分割させる
     請求項25から請求項30のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  32.  コンピュータに、
     生成される合成音声の時間長が、与えられた時間長の条件を満たさない場合には、合成音声を生成する際に使用するパラメータであって合成音声の速度に関わるパラメータを指定する処理を実行させる
     請求項25から請求項31のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  33.  コンピュータに、
     時間長または文字数の条件を、ユーザに入力させる処理を実行させる
     請求項25から請求項32のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  34.  コンピュータに、
     同義語辞書との照合により、入力テキストが示す文章に用いられている表現をより簡便な他の表現に変換する際に、変換後の合成音声の時間長または文字数に基づいて、変換候補を絞り込む処理を実行させる
     請求項25から請求項33のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
  35.  コンピュータに、
     合成音声を生成する際に使用するパラメータに基づいて、時間長を推定する処理を実行させる
     請求項25から請求項34のうちのいずれか1項に記載の合成音声生成用文章編集プログラム。
PCT/JP2009/051374 2008-02-27 2009-01-28 音声合成装置、テキスト生成装置およびその方法並びにプログラム WO2009107441A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010500617A JPWO2009107441A1 (ja) 2008-02-27 2009-01-28 音声合成装置、テキスト生成装置およびその方法並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-046435 2008-02-27
JP2008046435 2008-02-27

Publications (1)

Publication Number Publication Date
WO2009107441A1 true WO2009107441A1 (ja) 2009-09-03

Family

ID=41015847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/051374 WO2009107441A1 (ja) 2008-02-27 2009-01-28 音声合成装置、テキスト生成装置およびその方法並びにプログラム

Country Status (2)

Country Link
JP (1) JPWO2009107441A1 (ja)
WO (1) WO2009107441A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013119155A (ja) * 2011-12-09 2013-06-17 Advanced Telecommunication Research Institute International シナリオ生成装置およびシナリオ生成方法
CN109800421A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种游戏剧本生成方法及其装置、设备、存储介质
JP2020086507A (ja) * 2018-11-15 2020-06-04 東京瓦斯株式会社 情報処理装置およびプログラム
CN113643684A (zh) * 2021-07-21 2021-11-12 广东电力信息科技有限公司 语音合成方法、装置、电子设备及存储介质
CN116884390A (zh) * 2023-09-06 2023-10-13 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7126384B2 (ja) * 2018-06-14 2022-08-26 日本放送協会 学習装置及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0297999A (ja) * 1988-10-04 1990-04-10 Sharp Corp 音声合成装置
JPH0323500A (ja) * 1989-06-20 1991-01-31 Sharp Corp テキスト音声合成装置
JPH0335296A (ja) * 1989-06-30 1991-02-15 Sharp Corp テキスト音声合成装置
JP2000322075A (ja) * 1999-05-14 2000-11-24 Matsushita Electric Ind Co Ltd 音声合成装置および自然言語処理方法
JP2001014313A (ja) * 1999-07-02 2001-01-19 Sony Corp 文書処理装置、文書処理方法、及び記録媒体
JP2002149180A (ja) * 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
JP2003099080A (ja) * 2001-09-25 2003-04-04 Nissan Motor Co Ltd 音声読み上げ装置、音声読み上げシステム、及び音声読み上げ方法
JP2005316031A (ja) * 2004-04-28 2005-11-10 Nippon Hoso Kyokai <Nhk> データ放送コンテンツ受信変換装置およびデータ放送コンテンツ受信変換プログラム
WO2006070566A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. 音声合成方法および情報提供装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0297999A (ja) * 1988-10-04 1990-04-10 Sharp Corp 音声合成装置
JPH0323500A (ja) * 1989-06-20 1991-01-31 Sharp Corp テキスト音声合成装置
JPH0335296A (ja) * 1989-06-30 1991-02-15 Sharp Corp テキスト音声合成装置
JP2000322075A (ja) * 1999-05-14 2000-11-24 Matsushita Electric Ind Co Ltd 音声合成装置および自然言語処理方法
JP2001014313A (ja) * 1999-07-02 2001-01-19 Sony Corp 文書処理装置、文書処理方法、及び記録媒体
JP2002149180A (ja) * 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
JP2003099080A (ja) * 2001-09-25 2003-04-04 Nissan Motor Co Ltd 音声読み上げ装置、音声読み上げシステム、及び音声読み上げ方法
JP2005316031A (ja) * 2004-04-28 2005-11-10 Nippon Hoso Kyokai <Nhk> データ放送コンテンツ受信変換装置およびデータ放送コンテンツ受信変換プログラム
WO2006070566A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. 音声合成方法および情報提供装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013119155A (ja) * 2011-12-09 2013-06-17 Advanced Telecommunication Research Institute International シナリオ生成装置およびシナリオ生成方法
JP2020086507A (ja) * 2018-11-15 2020-06-04 東京瓦斯株式会社 情報処理装置およびプログラム
CN109800421A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种游戏剧本生成方法及其装置、设备、存储介质
CN113643684A (zh) * 2021-07-21 2021-11-12 广东电力信息科技有限公司 语音合成方法、装置、电子设备及存储介质
CN113643684B (zh) * 2021-07-21 2024-02-27 广东电力信息科技有限公司 语音合成方法、装置、电子设备及存储介质
CN116884390A (zh) * 2023-09-06 2023-10-13 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置
CN116884390B (zh) * 2023-09-06 2024-01-26 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置

Also Published As

Publication number Publication date
JPWO2009107441A1 (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
JP4559950B2 (ja) 韻律制御規則生成方法、音声合成方法、韻律制御規則生成装置、音声合成装置、韻律制御規則生成プログラム及び音声合成プログラム
US7236922B2 (en) Speech recognition with feedback from natural language processing for adaptation of acoustic model
Batista et al. Bilingual experiments on automatic recovery of capitalization and punctuation of automatic speech transcripts
JP4968036B2 (ja) 韻律語グルーピング方法及び装置
JP6471074B2 (ja) 機械翻訳装置、方法及びプログラム
KR101735195B1 (ko) 운율 정보 기반의 자소열 음소열 변환 방법과 시스템 그리고 기록 매체
WO2009107441A1 (ja) 音声合成装置、テキスト生成装置およびその方法並びにプログラム
JP4811557B2 (ja) 音声再生装置及び発話支援装置
JP5073024B2 (ja) 音声対話装置
Lin et al. Hierarchical prosody modeling for Mandarin spontaneous speech
KR100720175B1 (ko) 음성합성을 위한 끊어읽기 장치 및 방법
US6772116B2 (en) Method of decoding telegraphic speech
Janyoi et al. An Isarn dialect HMM-based text-to-speech system
JP4409279B2 (ja) 音声合成装置及び音声合成プログラム
JP3589972B2 (ja) 音声合成装置
JP5975033B2 (ja) 音声合成装置、音声合成方法および音声合成プログラム
US20030216921A1 (en) Method and system for limited domain text to speech (TTS) processing
JP2001117583A (ja) 音声認識装置および音声認識方法、並びに記録媒体
JPH0962286A (ja) 音声合成装置および音声合成方法
JPH11338498A (ja) 音声合成装置
JP2004271615A (ja) 情報処理装置
JP3357796B2 (ja) 音声合成装置及び同装置における韻律情報生成方法
Roux et al. Data-driven approach to rapid prototyping Xhosa speech synthesis
JP2000056788A (ja) 音声合成装置の韻律制御方法
JP2003005776A (ja) 音声合成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09714123

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010500617

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09714123

Country of ref document: EP

Kind code of ref document: A1