EP1554715B1 - Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät - Google Patents

Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät Download PDF

Info

Publication number
EP1554715B1
EP1554715B1 EP03757683A EP03757683A EP1554715B1 EP 1554715 B1 EP1554715 B1 EP 1554715B1 EP 03757683 A EP03757683 A EP 03757683A EP 03757683 A EP03757683 A EP 03757683A EP 1554715 B1 EP1554715 B1 EP 1554715B1
Authority
EP
European Patent Office
Prior art keywords
electronic
text
lexicon
sequence
phonetic units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
EP03757683A
Other languages
English (en)
French (fr)
Other versions
EP1554715A1 (de
Inventor
Michael Küstner
Markus Schnell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of EP1554715A1 publication Critical patent/EP1554715A1/de
Application granted granted Critical
Publication of EP1554715B1 publication Critical patent/EP1554715B1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Definitions

  • the invention relates to a method for computer-assisted speech synthesis of a stored electronic text to an analog voice signal, a speech synthesis device and a telecommunication device.
  • speech synthesis As a means of communicating information to humans in systems where other output media, e.g.
  • graphics are not possible, for example because no monitor is available for displaying information or can not be used for reasons of space.
  • a speech synthesis device and a method for speech synthesis is needed, which manages with very small demands on available resources in terms of computing power and in terms of the required storage space and yet a full synthesis, for example, for "reading aloud" a text, preferably an electronic message provides.
  • the invention is based on the problem to provide a speech synthesis, which requires less storage space than is required in known speech synthesis or speech synthesis.
  • the problem is solved by the method for computer-assisted speech synthesis of a stored electronic text to an analog voice signal, by a speech synthesis device and by a telecommunication device having the features according to the independent claims.
  • the stored electronic text is usually stored in a predetermined electronic word processing format, such as ASCII. Additionally, control characters of a word processing system, such as page break control characters or formatting control characters, may be included in the electronic text.
  • This text is converted by means of the method into an analog voice signal which is output by means of a loudspeaker to a user.
  • text analysis rules are to be understood as a set of rules which are processed one after the other and which, as will be explained in more detail below, usually represent language-specific rules which describe a usual mapping of certain parts of the electronic text to one or more sound-language units.
  • the abbreviation lexicon contains a mapping table of predefined abbreviations coded in the format in which the electronic text exists and the associated phonetic transcription of the abbreviation, for example encoded in SAMPA, as a corresponding representation of the respective given abbreviation.
  • a second series of audio-language units is formed which is associated with the respective electronic abbreviation in the electronic text in the abbreviation lexicon.
  • the electronic function dictionary is in this context a mapping table with predetermined function words, in turn encoded in the electronic text format used, and the respective functional word associated with audio units encoded in the respective phonetic transcription, preferably SAMPA, as a corresponding representation of the respective predetermined function word ,
  • a function word is to be understood as meaning a word which functions nouns or verbs connects, for example the words: “for”, “under”, “on”, “with”, etc.
  • a third sequence of audio-language units is formed corresponding to the corresponding entry in the electronic dictionary of functional words.
  • a fourth dictionary is created using an exception lexicon Sequence of phonetic units formed.
  • exception strings are stored, and the associated sequence of phonetic units, wherein a data tuple again contains two elements per data entry, the first element of the data tuple the respective term, encoded in the format of the electronic text, and the second element of the data tuple is the respective representation of the first element encoded in the respective phonetic transcription.
  • a prosody is generated for the respectively formed sequence of loudspeaker units using predetermined prosody rules, and then the speech signal, preferably the analog speech signal to be output, is generated from the respective sequence of loudspeaker units and the prosody formed for the respective sequence of loudspeaker units.
  • a speech synthesizer for synthesizing a stored electronic text into an analog speech signal has a text memory for storing the speech electronic text, as well as a rule memory for storing text analysis rules and storing prosody rules.
  • a lexicon memory for storing an electronic abbreviation lexicon, an electronic function dictionary and an electronic exception lexicon.
  • the speech synthesizer further includes a processor arranged to perform the method steps described above using the stored text analysis rules and prosody rules as well as the stored electronic lexicons.
  • a telecommunication device with a speech synthesis device is provided.
  • Another advantage of the invention is to be seen in the very easy scalability to increase the achievable quality of speech synthesis, since the respective electronic dictionaries and the rules are very easily expandable.
  • the voice units are stored in compressed form and at least a portion of the stored compressed audio-language units, in particular the compressed speech units required to form the sequence of audio-language units, are decompressed before the formation of the respective sequence of audio-language units, in particular before the formation of the first sequence of loud-speaking units. Compressing the audio units achieves a further significant reduction in disk space requirements.
  • both lossless and lossy compression algorithms can be used.
  • the method is used in an embedded system, which is why the speech synthesis device according to one embodiment of the invention is set up as an embedded system.
  • Fig.1 11 shows a telecommunication terminal 100 having a data display unit 101 for displaying information, an antenna 102 for receiving radio signals, a speaker 103 for outputting an analog voice signal, a keyboard 104 having input keys 105 for controlling the cellular phone 100, and a microphone 106 for recording a speech signal.
  • the mobile telephone 100 is adapted for communication according to the GSM standard, alternatively according to the UMTS standard, the GPRS standard or any other suitable mobile radio standard.
  • the mobile telephone 100 is set up to send and receive textual information, for example SMS messages (Short Message Service messages) or MMS messages (Multimedia Service messages).
  • SMS messages Short Message Service messages
  • MMS messages Multimedia Service messages
  • Fig.2 1 shows a block diagram of the individual components integrated into the mobile telephone 100, in particular a speech synthesis unit explained in detail below, which is integrated into the mobile telephone 100 as an embedded system.
  • the microphone 106 is coupled to an input interface 201.
  • a central processing unit 202 as well as a memory 203 and an ADPCM coding / decoding unit 204 are provided and an output interface 205.
  • the individual components are coupled to one another via a computer bus 206. With the output interface 205 of the speaker 103 is coupled.
  • the central processor unit 202 is set up such that the method steps described below for speech synthesis, as well as for the operation of the mobile telephone, in particular for the decoding and coding of Mobile radio signals, required process steps are performed.
  • the mobile telephone 100 is additionally configured for voice recognition.
  • the computer programs 207 required for operating the mobile telephone 100 are stored, and also the corresponding text analysis rules 208 and prosody rules 209 explained in more detail below. Furthermore, a multiplicity of different electronic lexicons are stored in the memory 203, according to this embodiment an abbreviation lexicon 210, a function dictionary 331 and an exception lexicon 212.
  • a respective mapping to a sequence of audio-language units is defined and stored for specific specifiable textual units.
  • diphones are used.
  • the diphones used in the speech synthesis are stored in a diphone lexicon 213, also stored in the memory 203.
  • the diphone lexicon 213, which is also referred to below as a diphone inventory or as an inventory contains, as set forth above, the diphones used for speech synthesis, according to this embodiment, however, mapped to a sampling frequency of 8 kHz, thereby further reducing the required memory space is achieved, since usually a sampling frequency for the diphones of 16 kHz or even a higher sampling frequency is used, which according to the invention in an alternative embodiment of the invention is of course also possible.
  • the diphones are encoded according to the ADPCM (Adapted Differential Pulse Code Modulation) and thus stored in the memory 203 in compressed form.
  • ADPCM Adapted Differential Pulse Code Modulation
  • an LPC method As described above, as an alternative to compressing the diphones, an LPC method, a CELP method, or even the GSM method may be employed, generally any compression method that achieves sufficiently large compression even with small signal portions while ensuring a sufficiently low information loss due to the compression. In other words, selecting a compression method which has a short transient of the encoder and causes a small quantization noise.
  • the stored electronic text is stored in an electronic file 301 and, in addition to preferably ASCII coded words, includes special characters or control characters such as a "New Line” control character or a "New Paragraph” control character or a control character for formatting part or all of the electronic file 301 stored electronic text stored.
  • the electronic text is subjected to different preprocessing rules as part of a word processor (block 302).
  • the processed electronic text 303 is then sent to a module, i. a computer program component supplied to the prosody 304, in which, as will be explained in more detail below, the prosody for the electronic text is generated supplied.
  • an ADPCM decoding using the inventory that is, using the diphone dictionary 213 whose compressed diphones 306 are ADPCM decoded prior to the processing described below, is performed by the ADPCM encoding / decoding unit 204, a building block selection, ie a selection of loudspeaker units, according to this embodiment of a selection of required diphons 307 (block 308).
  • the selected diphones 307 ie generally the selected speaker units, become a computer program component for acoustic synthesis (Block 309) supplied there and merged into a speech signal to be output, which output speech signal is initially digital and digital / analog converted to an analog voice signal 310, which is supplied via the output interface 205 to the speaker 103 and is output to the user of the mobile phone 100 ,
  • FIG. 4 In block diagram 400, the blocks of word processor 302 and prosody controller 304 are shown in more detail.
  • the electronic file 301 stores a sufficiently long electronic text which is transferred to the processor unit 202 in a complete contiguous memory area.
  • the electronic text has according to this embodiment, at least one subset, so that an appropriate Prosodiegener mich is possible.
  • the electronic file 301 in the case where the respective transferred electronic text from the electronic file 301 is shorter than a subset, i.e., the electronic file 301, the electronic file 301 is transmitted. in the event that no punctuation within the given electronic text are determined, the text is interpreted as a subset and artificially added a dot as a punctuation mark.
  • the text preprocessing (block 401) has the function of adapting the input electronic text to the character set used internally on the speech synthesis frame.
  • a character table which encodes format information for each character. Access to the table (not shown), which is also stored in memory 203, is via the numeric value of the character.
  • Control characters or characters that are not contained in the table are deleted from the entered electronic text.
  • the table is used by the two program components text preprocessing (block 401) and the "spell" program component described below (block 408).
  • the respective character class is coded one byte and the pronunciation form of the character as a string, i. as a consequence of loudspeaking units, i. according to the embodiment as Diphonate added. Overall, this results in a memory requirement of about one kbyte.
  • the input text 402 filtered by the text preprocessing 401 is subsequently evaluated by means of a special text analysis rule set in the context of a grapheme-phoneme conversion (block 403), which text analysis rule is stored in the memory 203 and by means of the different connections of numbers in the filtered input text 402 are recognized and implemented (block 404). Since numbers can contain not only digit sequences, but also measures or currency information, the evaluation takes place before the further decomposition of the filtered electronic text 402.
  • the filtered and number-examined electronic text 405 is then divided into sub-strings (i.e., words and phrases) using the program component tokenizer (block 406).
  • the substrings are hereinafter referred to as tokens.
  • the tokens undergo the lexical translation and the phonemic text analysis policy 407, respectively.
  • the token can not be converted into a phonemic, e.g. be converted into a sequence of speech units, i. conversion of the respective token in the context of the output by means of spelling, i. the token is considered in the speech output as a sequence of individual letters and correspondingly mapped to a sequence of diphones for the individual letters and this sequence is output as a spelled character string to the user by means of the computer program component "spell" (block 408).
  • numbers and number formats are recognized as part of the number conversion and converted into a sequence of phonetic units. First, it is checked in accordance with the number conversion text analysis rules whether the string is a known sequence of numbers and additional information.
  • the number rules of the number conversion text analysis rules are implemented such that there is a strict separation of the rule interpreter, which is language independent, and the rules themselves, which are language dependent.
  • reading in and converting the text analysis rules from the textual form and a memory efficient binary format is separate from the actual program, thus enabling efficient handling of the text analysis rules at runtime.
  • the definition of the conversion rules is restricted to the most important number formats, again to save storage space. Cardinal numbers and ordinal numbers, date and time are implemented (including the adjusted token "clock"). However, a supplement to other formats is readily possible at any time by simply supplementing the number conversion text analysis rules.
  • the determined character string according to the text analysis rule 208 in those of the respective Rule-assigned sequence of diphones converted, in other words, the found string is replaced by the rule target.
  • the rule target contains placeholders for the numbers that are determined by the second level of the rule set.
  • rules such as ordinals or years, for cardinal numbers that are specifically called by the rules of the first level written above.
  • the number to be converted must first satisfy one condition, otherwise the next text analysis rule will be checked.
  • a second condition can be tested, for which the number can be changed beforehand.
  • two numbers are generated by arithmetic operations, which are used in the control target for final conversion. For example, a translation of the first rule above into colloquial language would be:
  • Pattern rules ie the first-level rules and numerical rules described above, ie the second-level rules, include additional translation into a normal language form to facilitate troubleshooting. There Any messages can be generated in order to be able to follow the exact sequence of rule replacement from the outside.
  • Any number format which does not satisfy any of the existing number conversion text analysis rules will be passed unhandled and eventually translated into the analog speech signal 306 in spell mode 408 into a sequence of diphones, one letter at a time, and output to the user.
  • the program component "Tokenizer” detects word boundaries, i. Individual words are detected based on the intervening white characters. According to the character types, the token is classified either as a word (upper and lower case letters) or as a special format (special character).
  • sentence boundaries are marked at all those locations where punctuation marks followed by spaces are detected immediately after a word. If a token which is not a number contains more than one special character, it will be mapped into the analogue speech signal by spelling mode and output.
  • the class function word contains words that occur very frequently and therefore have a low information content and are rarely accentuated, which property is exploited in the context of the acoustic synthesis 309, as explained in more detail below.
  • the word classes are coded for later accentuation in one byte and assigned to the respective word.
  • X and Z may contain the characters "@” and "#", where "@” may be wildcards for any character and "@" represents the word boundary.
  • the rules are arranged according to the first letter of the rule body, so that only a part of all rules needs to be searched. Within the respective section, the rules are ordered from the most specific to the most general, so that it is ensured that at least the last rule is processed. If a rule is applicable, the rule processing is jumped, the rule result W is appended to the sequence of phonemes already existing for the current word, and the pointer to the string to be converted is continued by the number of characters in the rule body.
  • Efforts to efficiently present the policy as it is stored in memory 203 are based on a rule number of 1254 rules. If all four parts of a rule are stored in a table with a fixed number of rows and a number of columns, one row at a time, the table width must be the length of the longest overall rule, in this case 19 bytes. Access to the rules is very simple due to the field structure, but results in a memory requirement of 23 kilobytes.
  • rule components are packed tightly into an array, which is why an additional field of pointers with the length of 2500 bytes is needed for the access, but a total of only a memory requirement of 15 kilobytes exists.
  • the token is spelled out by replacing each character with its corresponding phonetic representation and outputting it in a corresponding manner. Due to the resulting disproportionate extension of the text (substitution of each character by n new characters), the number of characters spellable per token according to this embodiment is limited to a maximum of 10.
  • prosodic processing modules in prosody control 304 namely accentuation and silbification (block 409), volume control (block 410) and intonation control (block 411)
  • Some of the relevant information is already contained in the phoneme sequence of the token, if it was generated using one of the lexicons 210, 211, 212, with the rules for the implementation of numbers and number intervals or in spelling mode. In this part, the information mentioned is collected from the phoneme sequence.
  • the syllable boundary information or accentuation information is not yet available, it will be generated via further heuristic rules, which will be explained in more detail below.
  • the phoneme table contains 49 phonemes and special characters (main and secondary accent, hyphenator, pauses) as well as classification characteristics (long vowel, short vowel, diphthong, consonant class, etc.).
  • syllable nuclei and syllable nucleus types are determined for the hyphenation and within the intervocal consonant sequence according to heuristic rules the syllable boundary is determined.
  • the accentuation rules assign an accent to the first syllable in the word with long vowel or diphthong. If neither of these two syllable core types is present, the accent is assigned to the first syllable with short vowel.
  • the output sound length can be stretched or truncated by factors associated with the influences, with a reduction allowed only for a minimum duration.
  • the model provides a specific sound duration for each sound and the duration of pauses at syntactic limits. Phrase boundaries, subset boundaries, and landing boundaries provide pauses of increasing length.
  • the phrase-based component is formed using the knowledge that over each phrase, the fundamental frequency continuously decreases from the beginning to the end of the phrase (declination).
  • the interval width of the fundamental frequency movement is freely selectable as the control variable of the model.
  • FIG. 5a shows in a timing diagram 500 a minimum fundamental frequency 501 and a relative average fundamental frequency 502 and the course 503, the fundamental frequency over time.
  • the knowledge is used that, depending on the type of sentence to be realized (declarative sentence, continuation, exclamation, question) at the end of each phrase, the declination line is associated with a phrase-typical final movement.
  • This movement extends from the position of the last sentence accent in the phrase to the end of the phrase, but at most over the last five syllables of the phrase.
  • a first fundamental frequency curve 511 represents the final movement, a second fundamental frequency curve 512 a further, ie a continuation rate and a third fundamental frequency curve 513, a question.
  • an accent-based component is taken into account as the component for the entire prosody, the finding being used that in the case where one syllable carries a sentence accent, the fundamental frequency is raised over the entire syllable and lowered back to the declination line over the duration of the subsequent syllable becomes.
  • the Akzenthub can be selected as a control variable of the model again freely adapted application.
  • a first accent component 521 consisting of three regions, where in a first ascending region (in a first time region 522) from the declination line the fundamental frequency is raised to the accent stroke 523, there is retained during a second time range 524 and is only returned to the declination line in a third time range 525.
  • a second accent structure 526 is formed of only two time ranges, the ascending branch 527, in which the fundamental frequency is increased from the declination line to the accent stroke 523 and the descending branch 528, according to the immediately after reaching the accent stroke 523, the fundamental frequency again continuously on the declination line is reduced (second time range 528).
  • 5d shows a Rescuesprosodie 531 in a fourth time chart 530, the Autosprosodie the additive superposition of the in 5a to 5c represents individual components shown.
  • the total contour 531 is given to each participating phoneme, i. each phoneme in the word string for which the overall melody was determined, in each case assigned a value corresponding to the total prosodie determined.
  • the intonation contour is then reproduced by linear interpolation between the phoneme-based support points.
  • the accentuation on the first long vowel or if no such can be found on the first short vowel of the word.
  • the syllables are considered from right to left in contrast to the solution described above, i. starting at the suffix of the word.
  • the suffix is a "heavy" syllable, it gets the accent (1), otherwise it goes over to the penultimate syllable. If the penultimate syllable is conspicuous, ie not a "Schwa syllable", this is emphasized, otherwise in each step one syllable further forward in the direction of the beginning of the word, until a conspicuous syllable has been determined or the beginning of the word is reached ,
  • Syllables that do not have a coda are basically light syllables. If the coda consists of two or more consonants, it is a heavy syllable.
  • the coda consists of exactly one consonant.
  • it is decided on the basis of the syllable nucleus, whether it is a slight (in the case of a short vowel as a syllable nucleus) or a heavy syllable (in the case of a long vowel or diphthongs in the syllable nucleus).
  • the syllable initial plays no role in the determination of the syllable weight.
  • the intensity parameter is generated by preprocessing and serves to influence the dynamic range (and thus the naturalness) of the speech-synthesized signal.
  • the operation of the intensity control is thus comparable to the operation of the basic frequency control, as described above.
  • the respective nodes of the intensity control and the Basic frequency control can be selected independently of each other.
  • the target intensities are given in units of [dB]. A target intensity of 0 dB does not change the sample values of the signal modules.
  • the target intensities to be set form an indication of the relative change in intensity possessed by the inventory blocks. This means that it is advantageous to use an inventory with balanced intensity gradients.
  • the task of the block selection 304 is to determine the dependence of the symbol sequence supplied by the preprocessing (phoneme sequence or syllable sequence) from the inventory or the inventory description the suitable building blocks, according to the embodiment, the suitable diphones for the acoustic synthesis and select.
  • the block sequence generated in this way is provided with additional prosodic information, as explained above (sound duration, fundamental frequency profile), which was generated by the preprocessing.
  • Each element of the array contains the information for a symbol (phoneme, syllable, ).
  • An array structure of the data structure SM is generated by the block selection and passed to the acoustic synthesis.
  • the component unit contains the name of the block, anzLaute the number of symbols (phonemes, syllables, ...) contained in the block. All other components are taken from the preprocessing data structure SMPROS.
  • the array of the data structure INV contains the description data for an inventory.
  • the array is read from the appropriate binary file of the inventory to be used before startup.
  • Each element of the array INV contains the data of a sound module.
  • the elements are sorted by the start symbol of the element canon of the structure, by the number of symbols contained in the building block (phonemes, syllables, ...) and by the length of the element sequence kanon of the structure (in that order). This allows an effective search for the required device in the array.
  • Figure 6 shows in a structogram 600 the procedure of the block selection according to the embodiment of the invention.
  • a break of length 0 is inserted before the first element which is identified by the pointer * SMPROS. This serves to find the start module in the inventory.
  • the variable i is initialized to the value 0 (step 602) and the following steps are performed in a first intonation loop 603 for all elements of the respective SMPROS structure (all sounds).
  • the longest sound sequence that matches the element sequence at the current position i of the structure is determined (step 604).
  • step 605 If such a block is found (step 605, step 606), then the block is added to the data structure SM, and the variable i is added by the value num of the maximum number Symbols whose symbol sequence is equal to the symbol sequence in * (SMPROS + i + j) are increased.
  • test step 607 it is checked whether there are substitute sounds for the sounds included in the device (test step 607), and in the case where such a substitute sound exists, the sound is replaced (step 608). Otherwise, the value of the variable i is incremented by the value 1 (step 609) and the iteration loop of steps 604-609 is again run through for the new value of the variable i until all elements of the SMPROS structure have been tested.
  • the function of the Acoustic Synthesis 309 is to concatenate the signal sections as dictated by the block selection.
  • the fundamental frequency and the sound duration are manipulated by means of the PSOLA algorithm.
  • the input of the acoustic synthesis 309 is the SM structure, which is generated by the program component "block selection" 308.
  • the SM structure contains the blocks to be linked and the information about the fundamental frequency and the duration of the sound, which were generated by the preprocessing.
  • step 702 it is checked in each case whether the sound j represents a pause (step 702).
  • the pause is synthesized as a speech signal (step 703).
  • variable k is assigned the value of the start period of the sound j (step 706).
  • the desired period duration is calculated according to the interpolated fundamental frequency contour (step 709).
  • step 710 It is now checked whether the previously synthesized sound duration is less than or equal to the proportionate wanted sound duration (step 710), and in the case that this condition is satisfied, the period of desired period duration is synthesized according to the PSOLA algorithm (step 711).
  • step 712 it is checked again whether the previously synthesized sound duration is less than or equal to the proportionate desired sound duration.
  • the value of the variable k is incremented by the value 1 (step 713).
  • this procedure means that, depending on the insertions and omissions of periods, different periods are superimposed by means of the PSOLA algorithm, otherwise the period is superimposed on itself.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur rechnergestützten Sprachsynthese eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal, eine Sprachsyntheseeinrichtung sowie ein Telekommunikationsgerät.
  • Zur Ausgabe von Informationen mittels eines Computers an einen Benutzer wird in der heutigen Zeit mehr und mehr von der künstlichen Sprachsynthese Gebrauch gemacht. Besondere Bedeutung gewinnt die Sprachsynthese als Kommunikationsmittel zur Ausgabe von Informationen an den Menschen im Rahmen von Systemen, bei denen andere Ausgabemedien, wie z.B. Grafiken aus Platzgründen nicht möglich sind, beispielsweise weil kein Monitor zur Darstellung von Informationen verfügbar oder aus Platzgründen nicht einsetzbar ist. Gerade für einen solchen Fall, bei dem aus Platzgründen andere Ausgabemedien nicht eingesetzt werden können, wird eine Sprachsyntheseeinrichtung und ein Verfahren zur Sprachsynthese benötigt, die bzw. das mit sehr geringen Anforderungen an verfügbare Ressourcen hinsichtlich der Rechenleistung und hinsichtlich des benötigten Speicherplatzbedarfs auskommt und dennoch eine vollwertige Synthese, beispielsweise zum "Vorlesen" eines Textes, vorzugsweise einer elektronischen Nachricht, bereit stellt.
  • Bekannte Ansätze, die aufgrund ihrer sehr großen Anforderungen hinsichtlich des benötigten Speicherplatzbedarfs noch nicht auf integrierten Systemen (Embedded Systems) verfügbar sind, werden üblicherweise unterschieden in Sprachsynthesesysteme, bei denen die Sprachsynthese auf der so genannten Diphonsynthese basieren und in Sprachsynthesesysteme, die auf der so genannten Korpus-basierten Sprachsynthese beruhen.
  • Selbst die mit einem geringeren Speicherplatzbedarf auskommenden Diphonsynthesesysteme benötigen einen Speicherplatz von ungefähr 20 MByte, Korpus-basierte Sprachsynthesesysteme benötigen bis zu 1 GByte Speicherplatz und mehr.
  • Dieser Speicherplatzbedarf ist wesentlich zu groß, um gerade in einem Embedded System realisiert werden zu können.
  • In [5] ist eine Text-Zu-Sprache-Wandlereinrichtung beschrieben, bei der für ein beschriebenes spezielles Ausnahmelexikon die Text-Zu-Sprache-Wandlung durchgeführt wird.
  • In [6] ist eine Parser-Einrichtung zum Ermitteln von vorgegebenen Ausdrücken aus einer eingesprochenen Sprachsignalfolge beschrieben.
  • In [7] ist eine Text-Zu-Sprache-Wandlereinrichtung beschrieben, bei der ein Abkürzungs-Lexikon die Text-Zu-Sprache-Wandlung unterstützt.
  • Der Erfindung liegt das Problem zu Grunde, eine Sprachsynthese bereitzustellen, die mit reduziertem Speicherplatz auskommt als er bei bekannten Sprachsyntheseverfahren bzw. Sprachsyntheseeinrichtungen benötigt wird.
  • Das Problem wird durch das Verfahren zur rechnergestützten Sprachsynthese eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal, durch eine Sprachsyntheseeinrichtung sowie durch ein Telekommunikationsgerät mit den Merkmalen gemäß den unabhängigen Patentansprüchen gelöst.
  • Bei einem Verfahren zur rechnergestützten Sprachsynthese eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal wird der gespeicherte elektronische Text unter
  • Verwendung vorgegebener Textanalyse-Regeln einer Textanalyse unterzogen.
  • Der gespeicherte elektronische Text ist üblicherweise in einem vorgegebenen elektronischen Textverarbeitungsformat, wie beispielsweise ASCII, gespeichert. Zusätzlich können in dem elektronischen Text noch Steuerzeichen eines Textverarbeitungssystems, wie beispielsweise Seitenumbruchs-Steuerzeichen oder Formatierungs-Steuerzeichen enthalten sein.
  • Dieser Text wird mittels des Verfahrens umgesetzt in ein analoges Sprachsignal, welches mittels eines Lautsprechers einem Benutzer ausgegeben wird.
  • Unter Textanalyse-Regeln sind in diesem Zusammenhang ein Satz von Regeln zu verstehen, die nacheinander abgearbeitet werden und die, wie im Folgenden näher erläutert wird, üblicherweise sprachspezifische Regeln darstellen die eine übliche Abbildung bestimmter Teile des elektronischen Textes auf eine oder mehrere lautsprachliche Einheiten beschreiben.
  • Für den Fall, dass die Textanalyse-Regeln für den jeweils untersuchten elektronischen Text erfüllt werden oder sind, wird eine erste Folge lautsprachlicher Einheiten gebildet.
  • Als lautsprachliche Einheiten können erfindungsgemäß insbesondere folgende Einheiten für die anschließende konkatenierende Sprachsynthese verwendet werden:
    • Phonemsegmente,
    • Phoneme,
    • Allophone,
    • Diphone,
    • Triphone,
    • Halbsilben, insbesondere Anfangshalbsilben und Endhalbsilben + Rudimente, Suffixe,
    • Mischinventare zur Abdeckung koartikulatorischer Effekte,
    • Wörter, oder
    • eine Folge von Wörtern.
  • Ferner wird gemäß dem erfindungsgemäßen Verfahren geprüft, ob der elektronische Text in einem elektronischen Abkürzungs-Lexikon enthalten ist.
  • Das Abkürzungs-Lexikon enthält eine Abbildungstabelle von vorgegebenen Abkürzungen, codiert in dem Format, in dem der elektronische Text vorliegt, und die zugehörige lautsprachliche Umschrift der Abkürzung, beispielsweise codiert in SAMPA, als entsprechende Repräsentation der jeweiligen vorgegebenen Abkürzung.
  • Für den Fall, dass der elektronische Text in dem elektronischen Abkürzungs-Lexikon enthalten ist, wird eine zweite Folge lautsprachlicher Einheiten gebildet, die der jeweiligen elektronischen Abkürzung im elektronischen Text in dem Abkürzungs-Lexikon zugeordnet ist.
  • Ferner wird geprüft, ob der elektronische Text in einem elektronischen Funktionswörter-Lexikon enthalten ist.
  • Das elektronische Funktionswörter-Lexikon ist in diesem Zusammenhang eine Abbildungstabelle mit vorgegebenen Funktionswörtern, wiederum codiert in dem jeweils verwendeten elektronischen Textformat, und den dem jeweiligen Funktionswort zugeordneten lautsprachlichen Einheiten, codiert in der jeweiligen lautsprachlichen Umschrift, vorzugsweise SAMPA, als entsprechende Repräsentation des jeweiligen vorgegebenen Funktionsworts.
  • Unter einem Funktionswort ist in diesem Zusammenhang ein Wort zu verstehen, welches Substantive oder Verben funktional miteinander verbindet, beispielsweise die Worte: "für", "unter", "auf", "mit", etc.
  • Für den Fall, dass der elektronische Text in dem elektronischen Funktionswörter-Lexikon enthalten ist, wird eine dritte Folge lautsprachlicher Einheiten gebildet entsprechend dem zugehörigen Eintrag in dem elektronischen Funktionswörter-Lexikon.
  • Für den Fall, dass die Textanalyse-Regeln für den elektronischen Text nicht erfüllt werden und die Teile des elektronischen Textes oder der elektronische Text nicht in dem Abkürzungs-Lexikon oder in dem Funktionswörter-Lexikon enthalten sind, wird unter Verwendung eines Ausnahme-Lexikons eine vierte Folge lautsprachlicher Einheiten gebildet.
  • In dem Ausnahme-Lexikon sind wiederum von einem Benutzer vorgebbar in einer Abbildungstabelle vorgegebene Ausnahme-Zeichenfolgen gespeichert, und die zugehörige Folge von lautsprachlichen Einheiten, wobei ein Datentupel wiederum pro Dateneintrag zwei Elemente enthält, wobei das erste Element des Datentupels der jeweilige Begriff, codiert in dem Format des elektronischen Textes, ist und das zweite Element des Datentupels die jeweilige Repräsentation des ersten Elements, codiert in der jeweiligen lautsprachlichen Umschrift, ist.
  • Ferner wird für die jeweils gebildete Folge lautsprachlicher Einheiten unter Verwendung vorgegebener Prosodie-Regeln eine Prosodie erzeugt und anschließend wird aus der jeweiligen Folge lautsprachlicher Einheiten und der für die jeweilige Folge lautsprachlicher Einheiten gebildeten Prosodie das Sprachsignal, vorzugsweise das auszugebende analoge Sprachsignal, erzeugt.
  • Eine Sprachsyntheseeinrichtung zum Synthetisieren eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal weist einen Text-Speicher zum Speichern des elektronischen Textes auf, sowie einen Regel-Speicher zum Speichern von Textanalyse-Regeln und zum Speichern von Prosodie-Regeln.
  • Ferner ist ein Lexikon-Speicher vorgesehen zum Speichern eines elektronischen Abkürzungs-Lexikons, eines elektronischen Funktionswörter-Lexikons und eines elektronischen Ausnahme-Lexikons.
  • Die Sprachsyntheseeinrichtung weist ferner einen Prozessor auf, der derart eingerichtet ist, dass er unter Verwendung der gespeicherten Textanalyse-Regeln und Prosodie-Regeln sowie der gespeicherten elektronischen Lexika die oben beschriebenen Verfahrensschritte durchführt.
  • Weiterhin ist ein Telekommunikationsgerät mit einer erfindungsgemäßen Sprachsyntheseeinrichtung vorgesehen.
  • Durch den streng modularisierten regelbasierten Ansatz unter Verwendung der jeweils abgestuften und optimiert an die jeweilige Sprache angepassten elektronischen Lexika wird es möglich, dass eine Sprachsynthese mit ausreichend guter Qualität selbst in einem Embedded System mit sehr reduziertem Speicherplatzbedarf ermöglicht ist.
  • Ein weiterer Vorteil der Erfindung ist in der sehr leichten Skalierbarkeit zur Erhöhung der erreichbaren Qualität der Sprachsynthese zu sehen, da die jeweiligen elektronischen Lexika und die Regeln auf sehr einfache Weise erweiterbar sind.
  • Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
  • Gemäß einer Ausgestaltung der Erfindung werden die lautsprachlichen Einheiten in komprimierter Form gespeichert und zumindest ein Teil der gespeicherten komprimierten lautsprachlichen Einheiten, insbesondere die zur Bildung der Folge von lautsprachlichen Einheiten benötigten komprimierten lautsprachlichen Einheiten werden vor Bildung der jeweiligen Folge lautsprachlicher Einheiten, insbesondere vor Bildung der erste Folge lautsprachlicher Einheiten dekomprimiert. Durch die Komprimierung der lautsprachlichen Einheiten wird eine weitere erhebliche Reduktion des Speicherplatzbedarfs erreicht.
  • Als Komprimierungsverfahren können sowohl verlustfreie als auch verlustbehaftete Komprimierungsalgorithmen eingesetzt werden.
  • Es hat sich gezeigt, dass insbesondere die folgenden Verfahren sehr gut geeignet sind, um eine hohe Komprimierung des Inventars bei nur geringem Qualitätsverlust zu gewährleisten:
    • ADPCM (Adaptive Differential Pulse Code Modulation),
    • GSM,
    • LPC (Linear Predictive Coding), oder
    • CELP (Code Excited Linear Prediction).
  • Als lautsprachliche Einheiten werden vorzugsweise Diphone verwendet.
  • Bevorzugt wird das Verfahren in einem Embedded System eingesetzt, weshalb die Sprachsyntheseeinrichtung gemäß einer Ausgestaltung der Erfindung als Embedded System eingerichtet ist.
  • Ausführungsbeispiele der Erfindung sind in den Figuren dargestellt und werden im Folgenden näher erläutert.
  • Es zeigen
  • Figur 1
    ein Blockdiagramm ein Telekommunikations-Endgerät mit einer Sprachsyntheseeinrichtung gemäß einem Ausführungsbeispiel der Erfindung;
    Figur 2
    ein Blockdiagramm, das die einzelnen in das Telekommunikations-Endgerät eingebetteten Komponenten zeigt;
    Figur 3
    ein Blockdiagramm, in dem die einzelnen Komponenten zur Sprachsynthese gemäß einem Ausführungsbeispiel der Erfindung dargestellt sind;
    Figur 4
    ein Blockdiagramm, in dem die Komponenten der Textverarbeitung und der Prosodiesteuerung in größerem Detail dargestellt sind;
    Figuren
    5A bis 5D Skizzen von Einzelkomponenten eines Intonationsmodells sowie deren additive Überlagerung zu einer Gesamt-Intonationskontur gemäß einem Ausführungsbeispiel der Erfindung;
    Figur 6
    ein Struktogramm, in dem die einzelnen Verfahrensschritte zur Bausteinauswahl gemäß einem Ausführungsbeispiel der Erfindung dargestellt sind;
    Figur 7
    ein Struktogramm, in dem die einzelnen Verfahrensschritte zur akustischen Synthese gemäß einem Ausführungsbeispiel der Erfindung dargestellt sind.
  • Fig.1 zeigt ein Telekommunikations-Endgerät 100 mit einer Datenanzeigeeinheit 101 zum Darstellen von Informationen, eine Antenne 102 zum Empfangen bzw. Ausstrahlen von Funksignalen, einem Lautsprecher 103 zum Ausgeben eines analogen Sprachsignals, einem Tastenfeld 104 mit Eingabetasten 105 zur Steuerung des Mobilfunktelefons 100 sowie einem Mikrophon 106 zum Aufnehmen eines Sprachsignals.
  • Das Mobilfunktelefon 100 ist zur Kommunikation gemäß dem GSM-Standard, alternativ gemäß dem UMTS-Standard, dem GPRS-Standard oder einem beliebigen anderen geeigneten Mobilfunk-Standard eingerichtet.
  • Ferner ist das Mobilfunktelefon 100 eingerichtet zum Senden und Empfangen von textueller Information, beispielsweise von SMS-Nachrichten (Short Message Service-Nachrichten) oder MMS-Nachrichten (Multimedia Service-Nachrichten).
  • Fig.2 zeigt in einem Blockdiagramm die einzelnen, in das Mobilfunktelefon 100 integrierten Komponenten, insbesondere eine im Folgenden im Detail erläuterten Sprachsyntheseeinheit, welche in das Mobilfunktelefon 100 als Embedded System integriert ist.
  • Gemäß dem Blockdiagramm 200 ist das Mikrophon 106 mit einer Eingangsschnittstelle 201 gekoppelt.
  • Ferner sind eine zentrale Prozessoreinheit 202 sowie ein Speicher 203 und eine ADPCM-Codier-/Decodiereinheit 204 vorgesehen und eine Ausgangsschnittstelle 205. Die einzelnen Komponenten sind über einen Computerbus 206 miteinander gekoppelt. Mit der Ausgangsschnittstelle 205 ist der Lautsprecher 103 gekoppelt.
  • Bei der Dekompression der komprimierten Diphone in dem Diphon-Lexikon ist darauf zu achten, dass die Dekomprimierung gemäß dem ADPCM mittels der ADPCM-Codier-/Decodiereinheit 204 in Echtzeit erfolgt.
  • Die zentrale Prozessoreinheit 202 ist derart eingerichtet, dass die im Folgenden beschriebenen Verfahrensschritte zur Sprachsynthese, sowie die zum Betrieb des Mobilfunktelefons, insbesondere zur Decodierung und Codierung von Mobilfunksignalen, erforderlichen Verfahrensschritte durchgeführt werden.
  • In alternativen Ausführungsformen ist es vorgesehen, insbesondere für die Sprachsynthese eine separate Rechnereinheit, beispielsweise eine für die Sprachsysnthese speziell eingerichtete Rechnerkarte, vorzusehen, um damit die für andere Aufgaben innerhalb des Mobilfunktelefons vorgesehene zentrale Prozessoreinheit 202 zu entlasten.
  • In einer alternativen Ausführungsform ist das Mobilfunktelefon 100 zusätzlich zur Spracherkennung eingerichtet.
  • In dem Speicher 203 sind einerseits die zum Betrieb des Mobilfunktelefons 100 erforderlichen Computerprogramme 207 gespeichert sowie ferner die entsprechenden im Folgenden näher erläuterten Textanalyse-Regeln 208 und Prosodie-Regeln 209. Weiterhin sind eine Vielzahl unterschiedlicher elektronischer Lexika in dem Speicher 203 gespeichert, gemäß diesem Ausführungsbeispiel ein Abkürzungs-Lexikon 210, ein Funktionswörter-Lexikon 211 sowie ein Ausnahme-Lexikon 212.
  • In dem Abkürzungs-Lexikon 210 sind eine vorgegebene Anzahl von für die jeweilige Sprache üblichen Abkürzungen, beispielsweise folgende Ausdrücke und die der jeweiligen Abkürzung zugeordnete Folge lautsprachlicher Einheiten, gespeichert:
    • "bsp." "bspw." "etc." "usw." "u.a." "d.h." ...
  • In dem Funktionswörter-Lexikon 211 sind eine vorgegebene Anzahl von Funktionswörtern und den Funktionswörtern zugehörige Darstellungen in lautsprachlicher Umschrift, anders ausgedrückt die dem jeweiligen Funktionswort zugeordnete Folge lautsprachlicher Einheiten, gespeichert. Als Funktionswörter sind in der deutschen Sprache beispielsweise vorgesehen:
    • "für", "unter", "mit", "auf", ...
  • In dem Ausnahme-Lexikon 212 ist für bestimmte vorgebbare textuelle Einheiten, jeweils eine entsprechende Abbildung auf eine Folge lautsprachlicher Einheiten definiert und gespeichert.
  • Als lautsprachliche Einheiten werden gemäß diesem Ausführungsbeispiel Diphone verwendet. Die im Rahmen der Sprachsynthese verwendeten Diphone sind in einem ebenfalls in dem Speicher 203 gespeicherten Diphon-Lexikon 213 gespeichert.
  • Das Diphon-Lexikon 213, welches im Folgenden auch als Diphon-Inventar oder auch als Inventar bezeichnet wird, enthält, wie oben dargelegt, die zur Sprachsynthese verwendeten Diphone, gemäß diesem Ausführungsbeispiel jedoch abgebildet auf einer Abtastfrequenz von 8 kHz, wodurch eine weitere Reduktion des benötigten Speicherbedarfs erzielt wird, da üblicherweise eine Abtastfrequenz für die Diphone von 16 kHz oder sogar eine höhere Abtastfrequenz verwendet wird, was erfindungsgemäß in einer alternativen Ausgestaltung der Erfindung selbstverständlich ebenfalls möglich ist.
  • Ferner sind gemäß diesem Ausführungsbeispiel die Diphone gemäß dem ADPCM (Adapted Differential Pulse Code Modulation) codiert und somit in komprimierter Form in dem Speicher 203 gespeichert.
  • Wie oben beschrieben wurde, können alternativ zur Komprimierung der Diphone ein LPC-Verfahren, ein CELP-Verfahren oder auch das GSM-Verfahren eingesetzt werden, allgemein jedes Komprimierungsverfahren, das selbst bei kleinen Signalabschnitten eine ausreichend große Kompression erreicht unter Gewährleistung eines ausreichend geringen Informationsverlustes aufgrund der Komprimierung. Anders ausgedrückt ist ein Komprimierungsverfahren auszuwählen, welches einen kurzen Einschwingvorgang des Encoders aufweist und ein geringes Quantisierungsrauschen verursacht.
  • Anhand des Blockdiagramms 300 in Fig.3 wird eine Sprachsynthese einer in dem Speicher 203 gespeicherten und als analoges Sprachsignal auszugebenden Text-Nachricht erläutert.
  • Der gespeicherte elektronische Text ist in einer elektronischen Datei 301 gespeichert und weist neben vorzugsweise ASCII-codierten Wörtern Sonderzeichen oder Steuerzeichen wie beispielsweise einem "Neue Zeile"-Steuerzeichen oder ein "Neuer Absatz"-Steuerzeichen oder ein Steuerzeichen zur Formatierung eines Teils oder des gesamten in der elektronischen Datei 301 gespeicherten elektronischen Textes gespeichert.
  • Zur Sprachsynthese wird der elektronische Text im Rahmen einer Textverarbeitung (Block 302) unterschiedlichen Vorverarbeitungsregeln unterzogen. Der verarbeitete elektronische Text 303 wird anschließend einem Modul, d.h. einer Computerprogramm-Komponente zur Prosodiesteuerung 304 zugeführt, in dem, wie im Folgenden näher erläutert wird, die Prosodie für den elektronischen Text generiert wird, zugeführt.
  • Anschließend erfolgt für den auf diese Weise erzeugten elektronischen Text 305 eine unter Verwendung des Inventars, d.h. unter Verwendung des Diphon-Lexikons 213, dessen komprimierte Diphone 306 vor der im Folgenden beschriebenen Verarbeitung ADPCM-decodiert werden mittels der ADPCM-Codier-/Decodiereinheit 204, eine Bausteinauswahl, d.h. eine Auswahl lautsprachlicher Einheiten, gemäß diesem Ausführungsbeispiel einer Auswahl von benötigten Diphonen 307 (Block 308). Die ausgewählten Diphone 307, d.h. allgemein die ausgewählten lautsprachlichen Einheiten, werden einer Computerprogrammkomponente zur akustischen Synthese (Block 309) zugeführt und dort zu einem auszugebenden Sprachsignal zusammengeführt, welches auszugebende Sprachsignal zunächst digital vorliegt und digital/analog gewandelt wird zu einem analogen Sprachsignal 310, welches über die Ausgangsschnittstelle 205 dem Lautsprecher 103 zugeführt wird und an dem Benutzer des Mobilfunktelefons 100 ausgegeben wird.
  • Fig.4 zeigt in einem Blockdiagramm 400 die Blöcke der Textverarbeitung 302 und der Prosodiesteuerung 304 in größerem Detail.
  • Im Rahmen der Sprachsynthese ist in der elektronischen Datei 301 ein ausreichend langer elektronischer Text gespeichert, der in die Prozessoreinheit 202 in einem vollständigen zusammenhängenden Speicherbereich übergeben wird. Der elektronische Text weist gemäß diesem Ausführungsbeispiel mindestens eine Teilsatz auf, so dass eine angemessene Prosodiegenerierung ermöglicht ist.
  • Gemäß diesem Ausführungsbeispiel wird für den Fall, dass der jeweils übergebene elektronische Text aus der elektronischen Datei 301 kürzer ist als eine Teilsatz, d.h. für den Fall, dass keine Interpunktionszeichen innerhalb des übergebenen elektronischen Textes ermittelt werden, der Text wie ein Teilsatz aufgefasst und es wird künstlich ein Punkt als Interpunktionszeichen angefügt.
  • Die Text-Vorverarbeitung (Block 401) hat die Funktion, den eingegebenen elektronischen Text an den intern am Rahmen der Sprachsynthese verwendeten Zeichensatz anzupassen.
  • Für Texte, die aus unterschiedlichen Quellen stammen, ist eine Konvertierung auf den intern verwendeten Zeichensatz erforderlich, da beispielsweise die deutschen Umlaute nicht in allen Zeichensätzen den gleichen Codes zugeordnet sind. Weiterhin werden Steuerzeichen aus dem Text entfernt.
  • Zeilenvorschübe in Kombination mit Bindestrichen werden beseitigt. Zu diesem Zweck wird eine Zeichentabelle zur Verfügung gestellt, die für jedes Zeichen Formatinformationen codiert. Der Zugriff auf die Tabelle (nicht dargestellt), die ebenfalls in dem Speicher 203 gespeichert ist, erfolgt über den Zahlenwert des Zeichens.
  • Folgende Zeichenklassen werden unterschieden und sind in der Tabelle in dem Speicher 203 gespeichert:
 [0-9]                         Ziffer                     ZF

[a-z]                         Kleinbuchstaben            KB
[A-Z]                         Großbuchstaben             GB
[' ' '-' '\r\n' '\n' '\t']    Weißzeichen (Wortgrenze)   WZ
[. , ; : ? !]                 Interpunktion              IP
[* ' " # $ % & ' ( ) + _ / < > ...]
                              Sonderzeichen              SZ
['\n' '\r\n' '\t']            Steuerzeichen              ST 
  • Steuerzeichen oder Zeichen, die in der Tabelle nicht enthalten sind, werden aus dem eingegebenen elektronischen Text gelöscht. Die Tabelle wird von den beiden Programmkomponenten Text-Vorverarbeitung (Block 401) und der im Folgenden beschriebenen Programmkomponente "Buchstabieren" (Block 408) verwendet.
  • Die jeweilige Zeichenklasse ist einem Byte codiert und die Ausspracheform des Zeichens als Zeichenkette, d.h. als Folge lautsprachlicher Einheiten, d.h. gemäß dem Ausführungsbeispiel als Diphonfolge, angefügt. Insgesamt ergibt sich hier ein Speicherbedarf von ungefähr einem kByte.
  • Der durch die Text-Vorverarbeitung 401 gefilterte Eingangstext 402 wird anschließend mittels eines speziellen Textanalyse-Regelwerks im Rahmen einer Graphem-Phonem-Umsetzung (Block 403) ausgewertet, welches Textanalyse-Regelwerk in dem Speicher 203 gespeichert ist und mittels dem verschiedene Verbindungen von Zahlen in dem gefilterten Eingangstext 402 erkannt und umgesetzt werden (Block 404). Da Zahlen nicht nur Ziffernfolgen enthalten können, sondern auch Maßzahlen oder Währungsangaben, erfolgt die Auswertung vor der weiteren Zerlegung des gefilterten elektronischen Textes 402.
  • Der gefilterte und auf Zahlen untersuchte elektronische Text 405 wird anschließend unter Verwendung der Programmkomponente Tokenizer (Block 406) in Teilketten (d.h. Wörter und Sätze) aufgeteilt. Die Teilketten werden im weiteren als Token bezeichnet.
  • Die Token durchlaufen die lexikalische Umsetzung bzw. das phonemische Textanalyse-Regelwerk 407. Kann das Token durch keine Verarbeitungsstufe in eine phonemischen, d.h. in eine Folge lautsprachlicher Einheiten umgewandelt werden, d.h. überführt werden, so erfolgt eine Umsetzung des jeweiligen Tokens im Rahmen der Ausgabe mittels Buchstabierens, d.h. das Token wird in der Sprachausgabe als Folge einzelner Buchstaben betrachtet und entsprechend werden für die einzelnen Buchstaben auf eine Folge von Diphonen abgebildet und diese Folge wird als buchstabierte Zeichenkette dem Benutzer mittels der Computerprogrammkomponente "Buchstabieren" (Block 408) ausgegeben.
  • Mit einem speziellen Satz von Regeln aus den Textanalyse-Regeln werden im Rahmen der Zahlenumsetzung 404 Zahlen und Zahlenformate erkannt und in eine Folge lautsprachlicher Einheiten umgewandelt. Zunächst wird gemäß den Zahlenumsetzungs-Textanalyse-Regeln überprüft, ob die Zeichenkette einer bekannten Folge von Zahlen und Zusatzinformationen einspricht.
  • Beispiele für solche Zahlenumsetzungs-Textanalyse-Regeln zum Ermitteln von Zahlen und Zahlenformaten sind unter Verwendung der phonemischen Umschrift SAMPA im folgenden angegebenen:
  • "\Z{1900, 1999}"      ,     "n0Yntse:nhUnd@6t\1{-1900,0}"
    "\Z,\Z{0, 99} DM"     ,     "\1{0} mark \2{0}" 
  • In diesem Fall wird gemäß dem Ausdruck "\Z{1900, 1999}" nach einer Zahl gesucht die zwischen 1900 und 1999 liegt. Wird ein solche Zahl ermittelt, wird diese als Jahreszahl interpretiert und entsprechend in eine Diphonfolge und damit in eine Phonemfolge umgesetzt. Die Umsetzung erfolgt somit als eine Abbildung auf eine Folge von Diphonen als lautsprachliche Einheiten und den Platzhaltern für die ermittelten Zahlen, die von einer zweiten Stufe des Regelwerks umgesetzt werden.
  • Die Zahlenregeln der Zahlenumsetzungs-Textanalyse-Regeln werden derart implementiert, dass eine strenge Trennung des Regelinterpreters, welcher sprachunabhängig ist und der Regeln selbst, welche sprachabhängig sind, erfolgt.
  • Es ist in diesem Zusammenhang anzumerken, dass das Einlesen und Umwandeln der Textanalyse-Regeln aus der Textform und ein speichereffizientes binäres Format gemäß diesem Ausführungsbeispiel getrennt von dem eigentlichen Programm erfolgt, womit zur Laufzeit ein effizienter Umgang mit den Textanalyse-Regeln ermöglicht wird.
  • Bei der Definition der Umsetzungsregeln erfolgt eine Beschränkung auf die wichtigsten Ziffernformate, wiederum um Speicherplatz zu sparen. Umgesetzt werden Kardinalzahlen und Ordinalzahlen, Datum und Uhrzeit (inklusive nachgestelltem Token "Uhr"). Eine Ergänzung um andere Formate ist jedoch jederzeit ohne weiteres möglich durch einfache Ergänzung der Zahlenumsetzungs-Textanalyse-Regeln.
  • Trifft eine der Regeln zur Ermittlung von Zahlen und Zahlenformaten zu, so wird die ermittelte Zeichenkette entsprechend der Textanalyse-Regel 208 in die der jeweiligen Regel zugeordnete Folge von Diphonen umgesetzt, anders ausgedrückt wird die gefundene Zeichenkette durch das Regelziel ersetzt. Das Regelziel enthält Platzhalter für die ermittelten Zahlen, die von der zweiten Stufe des Regelwerks umgesetzt werden. Es gibt dort mehrere Regelmengen, beispielsweise für Kardinalzahlen Ordinalzahlen oder Jahreszahlen, die gezielt von den Regeln der ersten Stufe, die oben geschrieben worden sind, aufgerufen werden.
  • Im folgenden wird ein Überblick über Beispiele von Prozessregeln für die Kardinalzahlen gegeben:
  • >99,   %10,  =0,   /100,     ,        "\1{0}hUnd@6t" , "\1{0}hundert"
    >99,      ,    ,   /100, %100,    "\1{0}hUnd@6t\2{0}", "\1{0}hundert\2{0}
    >30,   %10,  =0,   /10 ,     ,            "\1{0}sIC" , "\1{0}zig"
    =30,      ,    ,       ,     ,             "draIsIC" , "drei"sig"
    >20,      ,    ,   %10 , -0  ,      "\1{0}?Unt\2{0}" , "\1{0}und\2{0}" 
  • Die umzusetzende Zahl muss zunächst eine Bedingung erfüllen, sonst wird die nächste Textanalyse-Regel überprüft. Optional kann auch noch ein zweite Bedingung getestet werden, für die die Zahl vorher verändert werden kann. Dann werden durch arithmetische Operationen zwei Zahlen erzeugt, die im Regelziel zur endgültigen Umsetzung benutzt werden. Eine Übersetzung der ersten oben dargestellten Regel in Umgangssprache würde beispielsweise so lauten:
  • "Wenn die Zahl größer ist als 99, und der Rest bei einer Modulo 10 Operation ist gleich Null, dann setze die Hilfszahl 1 zu Zahl durch 100, wandle sie mit Hilfe der Kardinalzahlregeln um und ergänze das Ergebnis um die Zeichenkette "hUnd@6t"."
  • Musterregeln, d.h. die oben geschriebenen Regeln der ersten Stufe und Zahlenregeln, d.h. die Regeln der zweiten Stufe, enthalten zur Erleichterung bei der Fehlersuche eine zusätzliche Umsetzung in eine normalsprachliche Form. Dort können beliebige Meldungen erzeugt werden, um den genauen Ablauf der Regelersetzung von außen nachvollziehen zu können.
  • Bleibt nach der Umsetzung des Tokens ein einzelnes Interpunktionszeichen übrig, so wird an dieser Stelle eine Satzgrenze eingefügt.
  • Alle Zahlenformat, die keiner der vorhandenen Zahlenumsetzungs-Textanalyse-Regeln genügen, werden unbehandelt weitergereicht und schließlich im Buchstabiermodus 408 in eine Folge Diphonen, wobei jeweils ein Buchstabe separat umgesetzt wird, in das analoge Sprachsignal 306 umgesetzt und dem Benutzer ausgegeben.
  • Von der Programmkomponente "Tokenizer" werden Wortgrenzen detektiert, d.h. es werden einzelne Wörter anhand der dazwischen liegenden Weißzeichen detektiert. Gemäß der Zeichentypen wird das Token entweder als Wort (Groß- und Kleinbuchstaben) oder als Sonderformat (Sonderzeichen) klassifiziert.
  • Ferner werden an all jenen Stellen Satzgrenzen markiert, an denen von Leerzeichen gefolgte Interpunktionszeichen unmittelbar nach einem Wort detektiert werden. Enthält ein Token, das keine Zahl ist, mehr als ein Sonderzeichen, so wird es durch den Buchstabiermodus in das analoge Sprachsignal abgebildet und ausgegeben.
  • Ferner werden in dem gefilterten elektronischen Text unter Verwendung des Abkürzungs-Lexikons 210 und des Funktionswörter-Lexikons 211 diejenigen Worte bzw. Ausdrücke ermittelt, die in den Lexika 210, 211 enthalten sind und die ermittelten Abkürzungen bzw. Funktionswörter werden in die entsprechende Folge von Diphonen umgewandelt.
  • Gemäß diesem Ausführungsbeispiel werden vor der Suche eines Tokens in den Lexika 210, 211 alle Großbuchstaben in Kleinbuchstaben umgewandelt, wobei für großgeschriebene Wörter die Wortklasseninformationen "Nomen" erhalten bleibt. Wird das Wort in dem jeweiligen Lexikon 210, 211 gefunden, so wird durch seine phonemisch Umschrift, d.h. durch die Folge von Diphonen, wie oben erläutert, ersetzt.
  • Die Struktur der Lexika ist für alle abgelegten Einträge gleich:
    • der graphemischen Form des Wortes und die phonemische Form mit Wortakzent-Marken und Silbengrenzen-Marken sowie die Wortklasse zugeordnet.
  • Für eine hinreichend korrekte Akzentuierung und Phrasierung werden gemäß diesem Ausführungsbeispiel die Wortklassen:
    • • Nomen    S
    • • Verb    VB
    • • Adverb    AV
    • • Adjektiv    ADJ
    • • Funktionswort    Fkt
    unterschieden.
  • Die Klasse Funktionswort enthält Wörter, die sehr häufig auftreten und daher einen geringen Informationsgehalt besitzen und selten akzentuiert werden, welche Eigenschaft im Rahmen der akustischen Synthese 309, wie im Folgenden näher erläutert wird, ausgenutzt wird.
  • Die Wortklassen werden zur späteren Akzentuierung in einem Byte codiert und dem jeweiligen Wort zugeordnet.
  • Ferner wird überprüft, ob das jeweilige Wort oder der jeweilige Ausdruck dem Ausnahmen-Lexikon 212 enthalten ist.
  • Ist das Wort nicht im Ausnahme-Lexikon 212 enthalten, so wird es mit Hilfe des phonemischen Textanalyse-Regelwerks umgesetzt, wobei die phonemischen Textanalyse-Regeln nach folgendem Schema aufgebaut sind:
    • XYZ → W
  • Die phonemischen Textanalyse-Regeln werden wie folgt abgearbeitet:
    Y wird durch W substituiert, wenn es im Wort, das zu transkribieren ist, rechts von X und links Z auftritt. X, Z und W können dabei leer sein oder ein bis fünf Zeichen oder Klassensymbole enthalten. Klassensymbole sind Platzhalter für eine Gruppe von Buchstaben bzw. Buchstabenfolgen, wie in der folgenden Tabelle aufgeführt:
  • V = {a e i o u ä ö ü y}                                 # Vokale
    B = {a o u}                                             # hintere Vokale
    D = {äu au ai ay ei ey eu}                              # Diphthonge
    C = {b c ch d f g h j k l m n p                         # Konsonanten
         ph qu r s sch t v w x z β}
    P = {b d g}                                             # Stimmhafte Plosive
    K = {b d g p t k}                                       # Plosive
    L = {l m n r}                                           # Liquide
    T = {bb ck dd ff gg kk ll mm nn                         # Doppelkonsonanten
         pp rr ss tt zz}
    S = {abel al alis ant anz ärin ator                     # betonte Ableitungs-
        ell ent enz ett eur iant ibel suffixe für Nomina
        iell ient in ion ismus ist istik
        istin itis iv ivum}
    N = {chen ler lein lich ling nis}                       # unbetonte
                                                            Ableitungssuffixe für
                                                            Nomina
    O = {ein ik isch ium ius um ung}                        # unbetonte
                                                            Ableitungssuffixe für
                                                            Nomina
    U = {ier}                                               # Ableitungssuffixe
                                                            für Verben
    E = {e em en es er ern n nen s ere                      # Endungen
        erem eren erer eres ste sten}
     I = {e en est et ete eten etest etet                     # Verbale Endungen
       n st t te ten test tet}
  • X und Z können die Zeichen "@" und "#" enthalten, wobei "@" Platzhalter für jedes beliebige Zeichen sein kann und "@" die Wortgrenze repräsentiert.
  • Die Regeln sind nach dem ersten Buchstaben des Regelkörpers geordnet, so dass jeweils nur ein Teil aller Regeln durchsucht werden braucht. Innerhalb des jeweiligen Abschnitts sind die Regeln von der speziellsten bis zur allgemeinsten geordnet, so dass sichergestellt ist, das mindestens die letzte Regel abgearbeitet wird. Bei Anwendbarkeit einer Regel wird aus der Regelabarbeitung gesprungen, das Regelergebnis W an die bereits für das aktuelle Wort existierende Folge von Phonemen angehängt und der Zeiger auf die umzusetzende Zeichenkette um die Anzahl der Zeichen im Regelkörper weitergesetzt.
  • Die Bemühungen um eine effiziente Darstellung des Regelwerks im Rahmen der Speicherung in dem Speicher 203 gehen von einer Regelzahl von 1254 Regeln aus. Werden alle vier Teile einer Regel in eine Tabelle mit fester Zeilenzahl und Spaltenzahl jeweils in einer Zeile unmittelbar hintereinander gespeichert, so muss als Tabellenbreite die Länge der längsten Gesamtregel verwendet werden, in diesem Fall 19 Byte. Der Zugriff auf die Regeln ist aufgrund der Feldstruktur sehr einfach, jedoch ergibt sich ein Speicherbedarf von 23 Kilobyte.
  • In einer alternativen Variante sind die Regelkomponenten eng in ein Array gepackt, weshalb für den Zugrifft ein weiteres Feld von Zeigern mit der Länge von 2500 Byte benötigt wird, jedoch insgesamt nur ein Speicherbedarf von 15 Kilobyte besteht.
  • Haben alle Transkriptionsversuche versagt, d.h. hat auch die Abbildung gemäß den phonemischen Textanalyse-Regeln nicht funktioniert, so wird das Token buchstabiert, indem jedes Zeichen durch seine entsprechenden phonetische Darstellung ersetzt und in entsprechender Weise ausgegeben wird. Aufgrund der dadurch bewirkten unverhältnismäßigen Verlängerung des Textes (Substitution jedes Zeichen durch n neue Zeichen) wird die Anzahl der pro Token buchstabierbaren Zeichen gemäß diesem Ausführungsbeispiel auf maximal 10 begrenzt.
  • Ist die Teilkette erfolgreich in eine Ausspracheform umgewandelt worden, so liegt die Folge von Phonemen als Folge lautsprachlicher Einheiten dafür vor.
  • Für die nachfolgenden prosodischen Verarbeitungsmodule im Rahmen der Prosodiesteuerung 304, nämlich der Akzentuierung und Silbifizierung (Block 409), der Lautdauer-Steuerung (Block 410) und Intonations-Steuerung (Block 411) ist es wichtig, Silbengrenzen und Akzentpositionen bzw. Akzenttypen zu kennen, welche mittels der Computerprogrammkomponente 409 ermittelt werden.
  • Ein Teil der diesbezüglichen Informationen ist bereits in der Phonemfolge des Tokens enthalten, sofern dieser mit Hilfe einer der Lexika 210, 211, 212, mit dem Regeln zur Umsetzung von Zahlen und Zahlenintervallen bzw. im Buchstabiermodus erzeugt wurde. In diesem Teil werden die genannten Informationen aus der Phonemfolge gesammelt.
  • Stehen die Silbengrenzinformationen bzw. Akzentuierungsinformationen noch nicht zur Verfügung, so werden sie über weiteres heuristisches Regelwerk, welches im folgenden näher erläutert wird, erzeugt.
  • Für das Parsen der Phonemfolge und die Klassifikation einzelner Phoneme als Langvokal, Kurzvokal, Frikativ etc. werden die Informationen aus der ebenfalls in dem Speicher 203 gespeicherten Phonemtabelle verwendet. In der Phonemtabelle sind 49 Phoneme und Sonderzeichen (Haupt- und Nebenakzent, Silbentrenner, Pausen) sowie Klassifizierungsmerkmale (Langvokal, Kurzvokal, Diphthong, Konsonantklasse etc.) enthalten.
  • Die Silbentrennungsregeln gehen davon aus, das aufgrund allgemeiner physiologischer Gesetzmäßigkeiten bestimmte Lautklassen in allen Sprachen ähnliche Funktionen aufweisen. Es werden zur Silbentrennung zunächst Silbenkerne und Silbenkern-Typen bestimmt und innerhalb der intervokalischen Konsonantenfolge nach heuristischen Regeln wird die Silbengrenze bestimmt.
  • Mittels der Akzentuierungsregeln wird der ersten Silbe im Wort mit Langvokal oder Diphthong ein Akzent zugewiesen. Ist keiner dieser beiden Silbenkern-Typen vorhanden, so wird der ersten Silbe mit Kurzvokal der Akzent zugewiesen.
  • Bestimmte Wortakzente werden abschließend mit einer Heuristik, die Wortklasse, Abstand zum vorhergehenden Satzakzent und Position innerhalb der Phrase kombiniert, aufgewertet zu einem Satzakzent. Für die Berechnung des Sprachrhythmus der synthetisierten Sprache wurde ein lautbasiertes Regelwerk gemäß Klatt/Kohler (beschrieben in [1] und [2]) realisiert.
  • Es wird eine Ausgangs-Lautlänge in Millisekunden, die für jede Lautklasse verschieden ist, und in der Phonemtabelle abgelegt ist, über ein Regelwerk modifiziert, welches Regelwerk verschiedene Einflussfaktoren berücksichtigt.
  • Als Einflussfaktoren werden gemäß diesem Ausführungsbeispiel Akzentsituationen, benachbarte Laute (Koartikulationsfaktoren), Position des Lautes in der Silbe, Position der Silbe im Wort und im Satz, verwendet. Andere geeignete Kriterien können selbstverständlich berücksichtigt werden.
  • Die Ausgangs-Lautlänge kann über den Einflüssen zugeordnete Faktoren gedehnt oder gekürzt werden, wobei eine Kürzung nur bis auf eine Minimaldauer erlaubt ist.
  • Die Berechnung der Lautdauer erfolgt gemäß folgender Vorschrift: Lautdauer = k D inh - D min Pr cnt + D min
    Figure imgb0001

    wobei mit
    • k ein Koartikulationsfaktor,
    • Dinh eine inhärente Lautlänge,
    • Dmin eine minimale Lautlänge und
    • Prcnt globale Einflussfaktoren bezeichnet werden.
  • Das Modell liefert für jeden Laut eine spezifische Lautdauer sowie an syntaktischen Grenzen die Dauer von Pausen. Phrasengrenzen, Teilsatzgrenzen und Absatzgrenzen liefern Pausen mit wachsender Länge.
  • Mittels der zuvor ermittelten Lautdauerangaben aus der Programmkomponente Lautdauer-Steuerung (Block 410) sowie den ermittelten Akzentuierungsinformationen und den ermittelten Satztypeninformationen aus der Graphem-Phonem-Umsetzung 403 wird im Rahmen der Intonations-Steuerung 411 für den gesamten elektronischen Text eine Sprechmelodie berechnet. Dazu wird folgendes Modell verwendet, das folgenden Anforderungen gerecht wird:
    • Akzente sind hörbar,
    • Phrasale und funktionale Strukturen sind hörbar (Pausen, Melodiekonturen),
    • es besteht eine Reproduktion natürlicher Variabilität und
    • eine neutrale Intonation ist gewährleistet, da Textverständnis fehlt.
  • Gemäß dem verwendeten Modell werden Internationskonturen aus linearen Teilkomponenten (vgl. Fig.5a bis Fig.5d) durch additive Überlagerung zusammengesetzt.
  • Dabei werden akzentbasierte Komponenten und phrasenbasierte Komponenten unterschieden.
  • Die phrasenbasierte Komponente wird gebildet unter Verwendung der Erkenntnis, dass über jede Phrase hinweg die Grundfrequenz vom Beginn zum Ende der Phrase hin kontinuierlich abfällt (Deklination). Die Intervallbreite der Grundfrequenzbewegung ist frei wählbar als Steuervariable des Modells.
  • Fig.5a zeigt in einem Zeitdiagramm 500 eine minimale Grundfrequenz 501 und eine relative mittlere Grundfrequenz 502 sowie den Verlauf 503, der Grundfrequenz über die Zeit.
  • Zur Bildung der satztypbasierten Komponenten wird die Erkenntnis verwendet, dass je nach Typ des zu realisierenden Satzes (Aussagesatz, Kontinuierung, Ausruf, Frage) am Ende jeder Phrase die Deklinationslinie mit einer phrasentypischen finalen Bewegung verknüpft ist.
  • Diese Bewegung erstreckt sich von der Position des letzten Satzakzentes in der Phrase bis zum Phrasenende, maximal jedoch über die letzten fünf Silben der Phrase.
  • Aussage und Ausruf bewirken eine zusätzliche Absenkung der Grundfrequenz zum Phrasenende hin, Kontinuierungssätze sowie Phrasengrenze bewirken einen leichten Grundfrequenzanstieg, eine Frage einen starken Grundfrequenzanstieg zum Phrasenende hin.
  • Der Wertebereich dieser phrasenfinalen Bewegungen kann im Rahmen des Modells frei gewählt werden.
  • Fig.5b zeigt in einem zweiten Zeitdiagramm 510 den Grundfrequenzverlauf zum Phrasenende hin für unterschiedliche Satztypen. Ein erster Grundfrequenzverlauf 511 stellt die finale Bewegung dar, ein zweiter Grundfrequenzverlauf 512 eine weiterweisende, d.h. einen Kontinuierungssatz und ein dritter Grundfrequenzverlauf 513 eine Frage.
  • Ferner wird als Komponente für die gesamte Prosodie eine akzentbasierte Komponente berücksichtigt, wobei die Erkenntnis verwendet wird, dass für den Fall, dass eine Silbe einen Satzakzent trägt, über die gesamte Silbe die Grundfrequenz angehoben wird und über die Dauer der Folgesilbe wieder auf die Deklinationslinie abgesenkt wird. Der Akzenthub kann als Steuervariable des Models wiederum frei anwendungsangepasst gewählt werden.
  • Fig.5c zeigt in einem dritten Zeitdiagramm 520 eine solche Akzentuierung für unterschiedliche Silben, eine erste Akzentkomponente 521, die aus drei Bereichen besteht, wobei in einem ersten aufsteigenden Bereich (in einem ersten Zeitbereich 522) von der Deklinationslinie die Grundfrequenz auf den Akzenthub 523 angehoben wird, dort während eines zweiten Zeitbereichs 524 behalten wird und erst in einem dritten Zeitbereich 525 wieder auf die Deklinationslinie zurückgeführt wird.
  • Eine zweite Akzentstruktur 526 wird lediglich aus zwei Zeitbereichen gebildet, dem aufsteigenden Ast 527, in dem die Grundfrequenz von der Deklinationslinie auf den Akzenthub 523 erhöht wird und dem absteigenden Ast 528, gemäß dem unmittelbar nach Erreichen des Akzenthubes 523 die Grundfrequenz wieder kontinuierlich auf die Deklinationslinie reduziert wird (zweiter Zeitbereich 528).
  • Fig.5d zeigt eine Gesamtprosodie 531 in einem vierten Zeitdiagramm 530, wobei die Gesamtprosodie die additive Überlagerung der in den Fig.5a bis Fig.5c dargestellten Einzelkomponenten darstellt.
  • Nach der Berechnung der Gesamtprosodie, d.h. der Gesamtkontur 531 wird jedem beteiligten Phonem, d.h. jedem Phonem in der Wortkette, zu der die Gesamtmelodie ermittelt wurde, jeweils ein Wert zugeordnet entsprechend der ermittelten Gesamtprosodie.
  • Im Rahmen der akustischen Synthese 309 wird dann die Intonationskontur reproduziert, indem sie zwischen den phonembasierten Stützstellen linear interpoliert wird.
  • In einer alternativen Ausgestaltung der Erfindung ist es vorgesehen, zur Wortakzentuierung einen linguistisch motivierten Akzentuierungsalgorithmus zu verwenden.
  • Gemäß dem oben beschriebenen Ausführungsbeispiel erfolgt die Akzentuierung auf dem ersten Langvokal bzw. wenn kein solcher gefunden werden kann auf dem ersten Kurzvokal des Wortes.
  • Dabei werden im Regelfall nur Substantive betrachtet, andere Wortarten nur, wenn der letzte Wortakzent weit zurück liegt, um eine monotone Aussprache zu vermeiden.
  • Funktionswörter kommen sehr häufig vor und werden im Sinne einer gewissen Redundanz grundsätzlich nicht betont.
  • Bei einer alternativen Ausführungsform wird von folgendem Satz von vier Regeln ausgegangen:
    • • Retrektion der "schweren" Endsilbe,
    • • Penultima-Regel,
    • • Regel der nächsten betonbaren Silbe und
    • • Approximations-Regel.
  • Die Wortsilben werden im Gegensatz zur oben beschriebenen Lösung von rechts nach links betrachtet, d.h. beginnend bei der Endsilbe des Wortes.
  • Wenn die Endsilbe eine "schwere" Silbe ist, so erhält diese die Betonung (1) ansonsten wird auf die vorletzte Silbe übergegangen. Wenn die vorletzte Silbe betonbar, also keine "Schwa-Silbe" ist, wird diese betont, ansonsten wird in jedem Schritt um eine Silbe weiter nach vorn in Richtung des Anfangs des Wortes gegangen, bis eine betonbare Silbe ermittelt worden ist oder der Wortanfang erreicht wird.
  • Die Unterscheidung der Silben in die phonetischen Kategorien "schwere Silben", "leichte Silben" und in "Schwa-Silben" erfolgt nach der Definition, wie sie in [3] und [4] gegeben sind.
  • Schwa-Silben sind Silben, die einen der Schwa-Laute "@", "n=", "m=" oder "N=" enthalten.
  • Silben, die keine Koda besitzen, also mit Vokal enden, sind grundsätzlich leichte Silben. Wenn die Koda aus zwei oder mehr Konsonanten besteht, handelt es sich um eine schwere Silbe.
  • Komplizierter liegt der Fall, wenn die Koda aus genau einem Konsonanten besteht. In diesem Fall wird aufgrund des Silbenkerns entschieden, ob es sich um eine leichte (bei einem Kurzvokal als Silbenkern) oder um eine schwere Silbe (bei einem Langvokal oder Diphthonge im Silbenkern) handelt.
  • Mit der phonologischen CV-Darstellung, bei der "gespannte" (lange) Vokale als W, "nicht-gespannte" Vokale als V und Konsonanten als C dargestellt werden, lässt sich dies folgendermaßen zusammenfassen:
    • •    Schwa-Silben:   @, n=, m=, N= als Nukleus,
    • •    leichte Silben:   C+VV, C+VC und
    • •    schwere Silben:   C+VVC+, C+VVC+,
    wobei C+ für einen oder mehrere Konsonanten steht.
  • Der Silbenanlaut (Onset) spielt bei der Bestimmung des Silbengewichtes keine Rolle.
  • Ferner ist es in einer alternativen Ausführungsform vorgesehen, die Intensität der Sprachsynthese zu steuern. Der Intensitätsparameter wird von einer Vorverarbeitung generiert und dient zur Beeinflussung des Dynamikbereichs (und damit der Natürlichkeit) des sprachsynthetisierten Signals.
  • Sie erfolgt periodenweise nach der Verkettung mit dem so genannten PSOLA-Algorithmus oder einem geeigneten Derivat dieses Verfahrens. Die einzelnen Abtastwerte des sprachsynthetisierten Signals werden mit einem Faktor multipliziert, der das Signal auf die gewünschte Zielintensität (in dB) einstellt.
  • Dieser Vorgang erfolgt gemäß folgender Vorschrift: s p u i = s p u i 10 I p u 20 dB .
    Figure imgb0002
  • Dabei bezeichnet spu (i) den i-ten Abtastwert der p-ten Periode des zu synthetisierenden lautsprachlichen Bausteins u. Die gewünschte Intensität Ipu wird für jede Periode p des lautsprachlichen Bausteins u neu berechnet, indem die an den Stützstellen vorgegebenen Zielintensitäten des Sprachsignals linear zwischen diesen Stützstellen interpoliert werden.
  • Die Funktionsweise der Intensitäts-Steuerung ist damit vergleichbar mit der Funktionsweise der GrundfrequenzSteuerung, wie sie oben beschrieben wurde. Die jeweiligen Stützstellen der Intensitäts-Steuerung und der Grundfrequenzsteuerung können unabhängig voneinander frei gewählt werden.
  • Die Zielintensitäten werden in der Einheit [dB] angegeben. Eine Zielintensität von 0 dB bewirkt keine Änderung der Abtastwerte der Signalbausteine. Die einzustellenden Zielintensitäten bilden eine Angabe über die relative Änderung der Intensität, welche die Inventarbausteine besitzen. Das bedeutet, dass es vorteilhaft ist, ein Inventar mit ausgewogenen Intensitätsverläufen zu verwenden.
  • Im Folgenden wird die in Fig.3 dargestellte Bausteinauswahl 304 näher erläutert.
  • Die Aufgabe der Bausteinauswahl 304 besteht darin, die Abhängigkeit der von der Vorverarbeitung gelieferten Symbolfolge (Phonemfolge bzw. Silbenfolge) aus dem Inventar bzw. der Inventarbeschreibung die geeigneten Bausteine, gemäß dem Ausführungsbeispiel die geeigneten Diphone, für die akustische Synthese zu ermitteln und auszuwählen.
  • Die auf diese Weise generierte Bausteinfolge wird mit prosodischer Zusatzinformation, wie oben erläutert wurde (Lautdauer, Grundfrequenzverlauf) versehen, welche von der Vorverarbeitung generiert wurde.
  • Zur vereinfachten Darstellung der Bausteinauswahl sind im folgenden unterschiedliche Datenstrukturen an den Schnittstellen der einzelnen Komponenten definiert.
  • Von der Vorverarbeitung wird ein Array der Datenstruktur SMPROS angelegt und mit den erforderlichen Daten gefüllt. Die Struktur ist im folgenden in einem Pseudocode angegeben:
  •  Struct GF {
     int             fn;
     int             tn;
     }; 
     struct           SMPROS {
     int              anzEI;
     char**           EI;
     char*            laut,
     int              dauer;
     int              gfAnz;
     struct GF*       gf;
     }; 
  • Jedes Element des Arrays enthält die Informationen für ein Symbol (Phonem, Silbe, ...).
  • Eine Arraystruktur der Datenstruktur SM wird von der Bausteinauswahl erzeugt und an die akustische Synthese übergeben.
  • Die Datenstruktur SM hat folgenden Aufbau:
  •  struct SM {
     int               anzEI;
     char**            EI;
     char*             unit;
     int               anzLaute;
     struct SMPROS**   laut;
     }; 
  • Die Komponente unit enthält den Namen des Bausteins, anzLaute die Anzahl der Symbole (Phoneme, Silben, ...), die im Baustein enthalten sind. Alle andere Komponenten werden aus der Datenstruktur SMPROS der Vorverarbeitung übernommen.
  • Das Array der Datenstruktur INV enthält die Beschreibungsdaten für ein Inventar. Das Array wird vor dem Start aus der entsprechenden Binärdatei des zu verwendenden Inventars gelesen.
  • Die Struktur INV hat folgenden Aufbau:
  •  struct INV {
     char          kanon[MAX_UNIT_LENGTH];
     long          startBin;
     int           anzPer;
     long          startPm;
     int           anzLaute;
     int*          lastPer;
     }; 
  • Jedes Element des Arrays INV enthält die Daten eines lautsprachlichen Bausteins. Die Elemente sind sortiert nach dem Anfangssymbol des Elements kanon der Struktur, nach der Anzahl der im Baustein enthaltenen Symbole (Phoneme, Silben, ...) und nach der Länger der Elementenfolge kanon der Struktur (in dieser Reihenfolge). Dies ermöglicht eine effektive Suche nach dem geforderten Baustein in dem Array.
  • Fig.6 zeigt in einem Struktogramm 600 die Vorgehensweise der Bausteinauswahl gemäß dem Ausführungsbeispiel der Erfindung.
  • In einem ersten Schritt 601 wird vor dem ersten Element welches durch den Zeiger *SMPROS identifiziert ist, eine Pause der Länge 0 eingefügt. Dies dient dazu, den Startbaustein im Inventar zu finden. Anschließend wird die Variable i auf den Wert 0 initialisiert (Schritt 602) und es werden in einer ersten Intonationsschleife 603 für alle Elemente der jeweiligen SMPROS-Struktur (alle Laute) die Folgenden Schritte durchgeführt. In dem Inventar wird die längste Lautfolge ermittelt, die auf die Elementfolge an der aktuellen Position i der Struktur passt (Schritt 604).
  • Ist ein solcher Baustein gefunden (Schritt 605, Schritt 606), so wird der Baustein in die Datenstruktur SM angefügt, und die Variable i um den Wert anz der maximalen Anzahl an Symbolen, deren Symbolfolge gleich der Symbolfolge in *(SMPROS+ i + j) ist, erhöht.
  • Ferner wird überprüft, ob es Ersatzlaute für die in dem Baustein enthaltenen Laute gibt (Prüfschritt 607) und für den Fall, dass ein solcher Ersatzlaut existiert, wird der Laut ersetzt (Schritt 608). Sonst wird der Wert der Variablen i um den Wert 1 erhöht (Schritt 609) und es wird die Iterationsschleife der Schritte 604 bis 609 erneut für den neuen Wert der Variable i durchlaufen solange, bis alle Elemente der SMPROS-Struktur geprüft worden sind.
  • Anschaulich bedeutet dies, dass für den Fall, dass ein Baustein mit der entsprechenden Lautfolge gefunden wurde, dieser an die SM-Struktur angefügt wird und die aktuelle Position der SMPROS-Struktur um die Anzahl der Laute im gefundenen Baustein erhöht wird.
  • Im Folgenden wird die akustische Synthese 309 näher erläutert.
  • Die Funktion der akustischen Synthese 309 besteht darin, die Signalabschnitte nach Vorgabe der Bausteinauswahl zu verketten.
  • Im Rahmen der Verkettung werden die Grundfrequenz und die Lautdauer mittels des PSOLA-Algorithmus manipuliert.
  • Die Eingangsgröße der akustischen Synthese 309 ist die SM-Struktur, welche von der Programmkomponente "Bausteinauswahl" 308 erzeugt wird. Die SM-Struktur enthält die zu verkettenden Bausteine und die Information zur Grundfrequenz und Lautdauer, welche von der Vorverarbeitung generiert wurden.
  • In dem Struktogramm 700 in Fig.7 sind die einzelnen Verfahrensschritte der akustischen Synthese 309 dargestellt.
  • Im Rahmen der akustischen Synthese 305 werden periodenweise alle Laute des geforderten Bausteins synthetisiert, d.h. es wird eine äußere Schleife 701 durchlaufen für alle Elemente i in der Struktur SM.
  • In einem ersten Schritt wird jeweils überprüft, ob der Laut j eine Pause darstellt (Schritt 702).
  • Ist dies der Fall, so wird die Pause als Sprachsignal synthetisiert (Schritt 703).
  • Ist dies jedoch nicht der Fall, so wird für alle Laute j des Bausteins i folgende Intonationsschleife 704 durchgeführt:
    • In einem ersten Abschnitt der Intonationsschleife 704 (Schritt 705) wird die gewollte Lautdauer berechnet.
  • Anschließend wird der Variable k der Wert der Startperiode des Lautes j zugeordnet (Schritt 706).
  • Solange der Wert der Variable k kleiner gleich der Endperiode des Lautes j ist (Überprüfungsschritt 707) werden folgende Verfahrensschritte durchgeführt:
    • In einem Schritt 708 wird eine Stützstelle mit nächster Ziel-Grundfrequenz ermittelt (Schritt 707).
  • Anschließend wird die gewollte Periodendauer nach interpolierter Grundfrequenzkontur berechnet (Schritt 709).
  • Nunmehr wird überprüft, ob die bisher synthetisierte Lautdauer kleiner oder gleich der anteiligen gewollten Lautdauer ist (Schritt 710) und für den Fall, dass diese Bedingung erfüllt ist, wird die Periode mit gewollter Periodendauer gemäß dem PSOLA-Algorithmus synthetisiert (Schritt 711).
  • Anschließend wird erneut geprüft, ob die bisher synthetisierte Lautdauer kleiner oder gleich der anteiligen gewollten Lautdauer ist (Schritt 712).
  • Ist dies nicht der Fall, so wird der Wert der Variable k um den Wert 1 inkrementiert (Schritt 713).
  • Anschaulich bedeutet diese Vorgehensweise, dass je nach Einfügungen und Auslassungen von Perioden unterschiedliche Perioden mittels des PSOLA-Algorithmus überlagert werden, sonst die Periode mit sich selbst.
  • Aus den gewollten Periodendauern, die mittels des PSOLA-Algorithmus erreicht werden, bestimmt sich die Grundfrequenzkontur. Die vorgegebenen Lautdauern werden mittels Einführungen und Auslassungen von Perioden näherungsweise erreicht.
  • Die Signalabschnitte, d.h. die Bausteine sind hintereinander im Speicher (short*) abgelegt. Die Information über die Startabtastwerte der Bausteine, die Anzahl der Perioden, die Startabtastwerte der Perioden usw. sind in der Struktur INV abgelegt, die Information über die Anzahl der Abtastwerte jeder Periode in der Struktur PERIODE, die folgenden Aufbau hat:
  •  struct PERIODE {
     short              perLen;
     unsigned char      anreg;
     unsigned char      dummy;
     }; 
  • In diesem Dokument sind folgende Veröffentlichungen zitiert:
    1. [1] Dennis H. Klatt, Synthesis by rule of segmental durations in English sentences, Frontiers of speech communication research, ed. B. Lindblom and S. Öhman, Academic Press, London, S. 287 - 300, 1979
    2. [2] Klaus J. Kohler, Zeitstrukturierung in der Sprachsynthese, in: Digitale Sprachverarbeitung, ITG-Tagung Bad Nauheim, hrsg. von A. Lacroix, VDE-Verlag, Berlin, S. 165 - 170, 1988
    3. [3] Caroline Fery, German Stress in Optimality Theory, Journal of Comparative Linguistics, S. 101 - 142, 1998
    4. [4] Petra Wagner, Systematische Überprüfung deutscher Wortbetonungsregeln, in W. Hess, K. Stöber (Hrsg.), Elektronische Sprachsignalverarbeitung, Tagungsband zur 12. Konferenz 2001, S. 329 - 338, 2001
    5. [5] WO 00/45373 A1
    6. [6] DE 691 31 549 T2
    7. [7] Marian Macchi, Issues in Text-to-Speech Synthesis, Proceedings, IEEE International Joint Symposia on Intelligence and Systems, Rockville (USA), 21-23 Mai 1998, Los Alamos (USA), IEEE Comput. Soc, Seiten 318-325
    Bezugszeichenliste
  • 100
    Telekommunikations-Endgerät
    101
    Datenanzeigeeinheit
    102
    Antenne
    103
    Lautsprecher
    104
    Tastenfeld
    105
    Taste
    106
    Mikrophon
    200
    Blockdiagramm
    201
    Eingangsschnittstelle
    202
    Prozessoreinheit
    203
    Speicher
    204
    ADPCM-Codier-/Decodiereinheit
    205
    Ausgangsschnittstelle
    206
    Computerbus
    207
    Computerprogramme
    208
    Textanalyse-Regeln
    209
    Prosodie-Regeln
    210
    Abkürzungs-Lexikon
    211
    Funktionswörter-Lexikon
    212
    Ausnahme-Lexikon
    213
    Diphon-Lexikon
    300
    Blockdiagramm
    301
    Datei
    302
    Textverarbeitung
    303
    Verarbeiteter elektronischer Text
    304
    Prosodiesteuerung
    305
    Elektronischer Text nach Prosodieerzeugung
    306
    Komprimiertes Diphon
    307
    Diphon
    308
    Bausteinauswahl
    309
    Akustische Synthese
    310
    Analoges Sprachsignal
    400
    Blockdiagramm
    401
    Text-Vorverarbeitung
    402
    Gefilterter Eingangstext
    403
    Graphem-Phonem-Umsetzung
    404
    Zahlenumsetzung
    405
    Gefilterter und auf Zahlen untersuchter Text
    406
    Tokenizer
    407
    Phonetische Regeln
    408
    Buchstabieren
    406
    Akzentuieren/Silbifizieren
    407
    Lautdauersteuerung
    408
    Intonationssteuerung
    500
    Erstes Zeitdiagramm
    501
    Minimale Grundfrequenz
    502
    Relative mittlere Grundfrequenz
    503
    Intonationskontur
    510
    Zweites Zeitdiagramm
    511
    Erster Konturverlauf
    512
    Zweiter Konturverlauf
    513
    Dritter Konturverlauf
    520
    Drittes Zeitdiagramm
    521
    Erste Akzentkomponente
    522
    Erster Zeitbereich
    523
    Akzenthub
    524
    Zweiter Zeitbereich
    525
    Dritter Zeitbereich
    526
    Zweite Akzentkomponente
    527
    Erster Zeitbereich
    528
    Zweiter Zeitbereich
    530
    Viertes Zeitdiagramm
    513
    Gesamt-Intonationskonturverlauf
    600
    Struktogramm
    601
    Verfahrensschritt
    602
    Verfahrensschritt
    603
    Verfahrensschritt
    604
    Verfahrensschritt
    605
    Verfahrensschritt
    606
    Verfahrensschritt
    607
    Verfahrensschritt
    608
    Verfahrensschritt
    609
    Verfahrensschritt
    700
    Struktogramm
    701
    Verfahrensschritt
    702
    Verfahrensschritt
    703
    Verfahrensschritt
    704
    Verfahrensschritt
    705
    Verfahrensschritt
    706
    Verfahrensschritt
    707
    Verfahrensschritt
    708
    Verfahrensschritt
    709
    Verfahrensschritt
    710
    Verfahrensschritt
    711
    Verfahrensschritt
    712
    Verfahrensschritt
    713
    Verfahrensschritt

    Claims (7)

    1. Verfahren zur rechnergestützten Sprachsynthese eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal,
      • bei dem der gespeicherte elektronische Text unter Verwendung vorgegebener Textanalyse-Regeln einer Textanalyse unterzogen wird,
      • bei dem für den Fall, dass die Textanalyse-Regeln für den elektronischen Text erfüllt werden, eine erste Folge lautsprachlicher Einheiten gebildet wird,
      • bei dem geprüft wird, ob der elektronische Text in einem elektronischen Abkürzungs-Lexikon, das eine Abbildungstabelle mit einer vorgegebenen Anzahl von für eine Sprache üblichen Abkürzungen enthält, enthalten ist,
      • bei dem für den Fall, dass der elektronische Text in dem elektronischen Abkürzungs-Lexikon enthalten ist, eine zweite Folge lautsprachlicher Einheiten gebildet wird,
      • bei dem geprüft wird, ob der elektronische Text in einem elektronischen Funktionswörter-Lexikon, das eine Abbildungstabelle mit häufig auftretenden Wörtern enthält, enthalten ist,
      • bei dem für den Fall, dass der elektronische Text in dem elektronischen Funktionswörter-Lexikon enthalten ist, eine dritte Folge lautsprachlicher Einheiten gebildet wird,
      • bei dem für den Fall, dass die Textanalyse-Regeln für den elektronischen Text nicht erfüllt werden, unter Verwendung eines Ausnahme-Lexikons, das eine Abbildungstabelle mit von einem Benutzer vorgegebenen Zeichenfolgen enthält, eine vierte Folge lautsprachlicher Einheiten gebildet wird, und
      • bei dem für die jeweilige Folge lautsprachlicher Einheiten unter Verwendung vorgegebener Prosodie-Regeln eine Prosodie erzeugt wird,
      • bei dem aus der jeweiligen Folge lautsprachlicher Einheiten und der Prosodie das analoge Sprachsignal erzeugt wird,
      • wobei die lautsprachlichen Einheiten in komprimierter Form gespeichert werden, und
      • wobei zumindest ein Teil der gespeicherten komprimierten lautsprachlichen Einheiten vor Bildung der jeweiligen Folge lautsprachlicher Einheiten dekomprimiert wird.
    2. Verfahren gemäß Anspruch 1,
      bei dem die Komprimierung gemäß einem der Folgenden Verfahren erfolgt:
      • ADPCM,
      • GSM,
      • LPC, oder
      • CELP.
    3. Verfahren gemäß Anspruch 1 oder 2,
      bei dem als lautsprachliche Einheiten Diphone verwendet werden.
    4. Verfahren gemäß einem der Ansprüche 1 bis 3,
      eingesetzt in einem Embedded System.
    5. Sprachsyntheseeinrichtung zum Synthetisieren eines gespeicherten elektronischen Textes zu einem analogen Sprachsignal,
      • mit einem Text-Speicher zum Speichern des elektronischen Textes,
      • mit einem Regel-Speicher zum Speichern von Textanalyse-Regeln und Prosodie-Regeln,
      • mit einem Lexikon-Speicher zum Speichern eines
      • elektronischen Abkürzungs-Lexikons, eines elektronischen Funktionswörter-Lexikons und eines elektronischen Ausnahme-Lexikons,
      • mit einem Prozessor, der derart eingerichtet ist, dass er unter Verwendung der gespeicherten Textanalyse-Regeln und Prosodie-Regeln sowie der gespeicherten elektronischen Lexika folgende Schritte durchführt:
      • der gespeicherte elektronische Text wird unter Verwendung vorgegebener Textanalyse-Regeln einer Textanalyse unterzogen,
      • für den Fall, dass die Textanalyse-Regeln für den elektronischen Text erfüllt werden, wird eine erste Folge lautsprachlicher Einheiten gebildet,
      • es wird geprüft, ob der elektronische Text in einem elektronischen Abkürzungs-Lexikon, das eine Abbildungstabelle mit einer vorgegebenen Anzahl von für eine Sprache üblichen Abkürzungen enthält, enthalten ist,
      • für den Fall, dass der elektronische Text in dem elektronischen Abkürzungs-Lexikon enthalten ist, wird eine zweite Folge lautsprachlicher Einheiten gebildet,
      • es wird geprüft, ob der elektronische Text in einem elektronischen Funktionswörter-Lexikon, das eine Abbildungstabelle mit häufig auftretenden Wörtern enthält, enthalten ist,
      • für den Fall, dass der elektronische Text in dem elektronischen Funktionswörter-Lexikon enthalten ist, wird eine dritte Folge lautsprachlicher Einheiten gebildet,
      • für den Fall, dass die Textanalyse-Regeln für den elektronischen Text nicht erfüllt werden, wird unter Verwendung eines Ausnahme-Lexikons, das eine Abbildungstabelle mit von einem Benutzer vorgegebenen Zeichenfolgen enthält, eine vierte Folge lautsprachlicher Einheiten gebildet, und
      • für die jeweilige Folge lautsprachlicher Einheiten wird unter Verwendung vorgegebener Prosodie-Regeln eine Prosodie erzeugt,
      • aus der jeweiligen Folge lautsprachlicher Einheiten und der Prosodie wird das analoge Sprachsignal erzeugt,
      • wobei die lautsprachlichen Einheiten in komprimierter Form gespeichert sind, und
      • wobei zumindest ein Teil der gespeicherten komprimierten lautsprachlichen Einheiten vor Bildung der jeweiligen Folge lautsprachlicher Einheiten dekomprimiert wird.
    6. Sprachsyntheseeinrichtung gemäß Ansprüche 5,
      eingerichtet als ein Embedded System.
    7. Telekommunikationsgerät mit einer Sprachsyntheseeinrichtung gemäß Anspruch 5 oder 6.
    EP03757683A 2002-09-23 2003-09-23 Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät Expired - Fee Related EP1554715B1 (de)

    Applications Claiming Priority (3)

    Application Number Priority Date Filing Date Title
    DE10244166 2002-09-23
    DE10244166 2002-09-23
    PCT/DE2003/003158 WO2004029929A1 (de) 2002-09-23 2003-09-23 Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät

    Publications (2)

    Publication Number Publication Date
    EP1554715A1 EP1554715A1 (de) 2005-07-20
    EP1554715B1 true EP1554715B1 (de) 2010-04-14

    Family

    ID=32038177

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    EP03757683A Expired - Fee Related EP1554715B1 (de) 2002-09-23 2003-09-23 Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät

    Country Status (4)

    Country Link
    EP (1) EP1554715B1 (de)
    CN (1) CN100354928C (de)
    DE (1) DE50312627D1 (de)
    WO (1) WO2004029929A1 (de)

    Cited By (1)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    DE102013219828A1 (de) * 2013-09-30 2015-04-02 Continental Automotive Gmbh Verfahren zum Phonetisieren von textenthaltenden Datensätzen mit mehreren Datensatzteilen und sprachgesteuerte Benutzerschnittstelle

    Families Citing this family (3)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    CN105895076B (zh) * 2015-01-26 2019-11-15 科大讯飞股份有限公司 一种语音合成方法及系统
    CN105895075B (zh) * 2015-01-26 2019-11-15 科大讯飞股份有限公司 提高合成语音韵律自然度的方法及系统
    CN108231058A (zh) * 2016-12-17 2018-06-29 鸿富锦精密电子(天津)有限公司 语音辅助测试系统及语音辅助测试方法

    Family Cites Families (2)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    EP1217610A1 (de) * 2000-11-28 2002-06-26 Siemens Aktiengesellschaft Verfahren und System zur multilingualen Spracherkennung
    JP2002169581A (ja) * 2000-11-29 2002-06-14 Matsushita Electric Ind Co Ltd 音声合成方法およびその装置

    Cited By (1)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    DE102013219828A1 (de) * 2013-09-30 2015-04-02 Continental Automotive Gmbh Verfahren zum Phonetisieren von textenthaltenden Datensätzen mit mehreren Datensatzteilen und sprachgesteuerte Benutzerschnittstelle

    Also Published As

    Publication number Publication date
    CN1685396A (zh) 2005-10-19
    WO2004029929A1 (de) 2004-04-08
    DE50312627D1 (de) 2010-05-27
    CN100354928C (zh) 2007-12-12
    EP1554715A1 (de) 2005-07-20

    Similar Documents

    Publication Publication Date Title
    DE60035001T2 (de) Sprachsynthese mit Prosodie-Mustern
    US7558732B2 (en) Method and system for computer-aided speech synthesis
    KR900009170B1 (ko) 규칙합성형 음성합성시스템
    DE69925932T2 (de) Sprachsynthese durch verkettung von sprachwellenformen
    EP0886853B1 (de) Auf mikrosegmenten basierendes sprachsyntheseverfahren
    DE60126564T2 (de) Verfahren und Anordnung zur Sprachsysnthese
    DE69909716T2 (de) Formant Sprachsynthetisierer unter Verwendung von Verkettung von Halbsilben mit unabhängiger Überblendung im Filterkoeffizienten- und Quellenbereich
    DE69821673T2 (de) Verfahren und Vorrichtung zum Editieren synthetischer Sprachnachrichten, sowie Speichermittel mit dem Verfahren
    EP0504927B1 (de) Verfahren und System zur Spracherkennung
    EP1159734B1 (de) Verfahren und anordnung zur ermittlung einer merkmalsbeschreibung eines sprachsignals
    DE60020434T2 (de) Erzeugung und Synthese von Prosodie-Mustern
    DE69937176T2 (de) Segmentierungsverfahren zur Erweiterung des aktiven Vokabulars von Spracherkennern
    DE2212472A1 (de) Verfahren und Anordnung zur Sprachsynthese gedruckter Nachrichtentexte
    EP0925578B1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
    DE19825205C2 (de) Verfahren, Vorrichtung und Erzeugnis zum Generieren von postlexikalischen Aussprachen aus lexikalischen Aussprachen mit einem neuronalen Netz
    DE69917960T2 (de) Phonembasierte Sprachsynthese
    EP3010014B1 (de) Verfahren zur interpretation von automatischer spracherkennung
    Fletcher et al. Segment and syllable duration in Australian English
    EP1554715B1 (de) Verfahren zur rechnergestützten sprachsynthese eines gespeicherten elektronischen textes zu einem analogen sprachsignal, sprachsyntheseeinrichtung und telekommunikationsgerät
    EP0058130B1 (de) Verfahren zur Synthese von Sprache mit unbegrenztem Wortschatz und Schaltungsanordnung zur Durchführung des Verfahrens
    EP1344211B1 (de) Vorrichtung und verfahren zur differenzierten sprachausgabe
    Kumar et al. Significance of durational knowledge for speech synthesis system in an Indian language
    Sudhakar et al. Development of Concatenative Syllable-Based Text to Speech Synthesis System for Tamil
    Samlowski The syllable as a processing unit in speech production: evidence from frequency effects on coarticulation
    DE60028471T2 (de) Erzeugung und Verwendung eines Sprachsegmentlexikons

    Legal Events

    Date Code Title Description
    PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

    Free format text: ORIGINAL CODE: 0009012

    17P Request for examination filed

    Effective date: 20050112

    AK Designated contracting states

    Kind code of ref document: A1

    Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

    RBV Designated contracting states (corrected)

    Designated state(s): DE FR GB IT

    GRAP Despatch of communication of intention to grant a patent

    Free format text: ORIGINAL CODE: EPIDOSNIGR1

    RAP1 Party data changed (applicant data changed or rights of an application transferred)

    Owner name: INFINEON TECHNOLOGIES AG

    GRAS Grant fee paid

    Free format text: ORIGINAL CODE: EPIDOSNIGR3

    GRAA (expected) grant

    Free format text: ORIGINAL CODE: 0009210

    AK Designated contracting states

    Kind code of ref document: B1

    Designated state(s): DE FR GB IT

    REG Reference to a national code

    Ref country code: GB

    Ref legal event code: FG4D

    Free format text: NOT ENGLISH

    REF Corresponds to:

    Ref document number: 50312627

    Country of ref document: DE

    Date of ref document: 20100527

    Kind code of ref document: P

    PLBE No opposition filed within time limit

    Free format text: ORIGINAL CODE: 0009261

    STAA Information on the status of an ep patent application or granted ep patent

    Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

    26N No opposition filed

    Effective date: 20110117

    REG Reference to a national code

    Ref country code: GB

    Ref legal event code: 732E

    Free format text: REGISTERED BETWEEN 20120614 AND 20120620

    REG Reference to a national code

    Ref country code: GB

    Ref legal event code: 732E

    Free format text: REGISTERED BETWEEN 20121213 AND 20121219

    REG Reference to a national code

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL MOBILE COMMUNICATIONS GMBH, DE

    Free format text: FORMER OWNER: INFINEON TECHNOLOGIES AG, 85579 NEUBIBERG, DE

    Effective date: 20130315

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL MOBILE COMMUNICATIONS GMBH, DE

    Free format text: FORMER OWNER: INFINEON TECHNOLOGIES AG, 85579 NEUBIBERG, DE

    Effective date: 20130314

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL MOBILE COMMUNICATIONS GMBH, DE

    Free format text: FORMER OWNER: INTEL MOBILE COMMUNICATIONS TECHNOLOGY GMBH, 85579 NEUBIBERG, DE

    Effective date: 20130326

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL MOBILE COMMUNICATIONS GMBH, DE

    Free format text: FORMER OWNER: INTEL MOBILE COMMUNICATIONS GMBH, 85579 NEUBIBERG, DE

    Effective date: 20130315

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Free format text: FORMER OWNER: INTEL MOBILE COMMUNICATIONS GMBH, 85579 NEUBIBERG, DE

    Effective date: 20130315

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Free format text: FORMER OWNER: INTEL MOBILE COMMUNICATIONS TECHNOLOGY GMBH, 85579 NEUBIBERG, DE

    Effective date: 20130326

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Free format text: FORMER OWNER: INFINEON TECHNOLOGIES AG, 85579 NEUBIBERG, DE

    Effective date: 20130314

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Free format text: FORMER OWNER: INFINEON TECHNOLOGIES AG, 85579 NEUBIBERG, DE

    Effective date: 20130315

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: GB

    Payment date: 20140917

    Year of fee payment: 12

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: IT

    Payment date: 20140916

    Year of fee payment: 12

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: FR

    Payment date: 20140906

    Year of fee payment: 12

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: DE

    Payment date: 20150916

    Year of fee payment: 13

    REG Reference to a national code

    Ref country code: DE

    Ref legal event code: R081

    Ref document number: 50312627

    Country of ref document: DE

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Free format text: FORMER OWNER: INTEL MOBILE COMMUNICATIONS GMBH, 85579 NEUBIBERG, DE

    REG Reference to a national code

    Ref country code: FR

    Ref legal event code: CD

    Owner name: INTEL DEUTSCHLAND GMBH, DE

    Effective date: 20160126

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: IT

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20150923

    GBPC Gb: european patent ceased through non-payment of renewal fee

    Effective date: 20150923

    REG Reference to a national code

    Ref country code: FR

    Ref legal event code: ST

    Effective date: 20160531

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: GB

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20150923

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: FR

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20150930

    REG Reference to a national code

    Ref country code: DE

    Ref legal event code: R119

    Ref document number: 50312627

    Country of ref document: DE

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: DE

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20170401