WO2006054724A1 - 音声認識装置及び方法ならびにプログラム - Google Patents

音声認識装置及び方法ならびにプログラム Download PDF

Info

Publication number
WO2006054724A1
WO2006054724A1 PCT/JP2005/021296 JP2005021296W WO2006054724A1 WO 2006054724 A1 WO2006054724 A1 WO 2006054724A1 JP 2005021296 W JP2005021296 W JP 2005021296W WO 2006054724 A1 WO2006054724 A1 WO 2006054724A1
Authority
WO
WIPO (PCT)
Prior art keywords
word
probability
words
competing
recognition
Prior art date
Application number
PCT/JP2005/021296
Other languages
English (en)
French (fr)
Inventor
Masataka Goto
Jun Ogata
Original Assignee
National Institute Of Advanced Industrial Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Advanced Industrial Science And Technology filed Critical National Institute Of Advanced Industrial Science And Technology
Priority to GB0712277A priority Critical patent/GB2437436B/en
Priority to US11/719,479 priority patent/US7848926B2/en
Publication of WO2006054724A1 publication Critical patent/WO2006054724A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/085Methods for reducing search complexity, pruning

Definitions

  • the present invention relates to a speech recognition apparatus, method, and program that can correct a speech recognition result displayed on a screen.
  • Non-Patent Document 1 this is developed to display the recognition result separated by a word boundary line after the end of utterance, and correct the word separation by powerful Kanji conversion. The boundary can be moved with the mouse.
  • Non-Patent Document 2 realizes a practical recognition error correction system for use-use subtitle broadcasting using speech recognition.
  • this technology assuming that the division of labor of two people is premised, one person can identify a misrecognized part. Because it was necessary to find and mark and another person to type the correct answer at that point, it was powerful enough for individuals to correct their voice input.
  • the user discovers and points out a misrecognized portion, and then determines and selects other candidates for the portion, or corrects by typing to save time and effort. In short, it was.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-287792 discloses a technique for correcting voice recognition by voice input.
  • Patent Document 2 Japanese Patent Laid-Open No. 2004-309928
  • Patent Document 3 Japanese Patent Laid-Open No. 2002-297181
  • Patent Document 4 Japanese Patent Laid-Open No. 6-301395 disclose a technique that uses a confusion matrix to improve the recognition rate of speech recognition. Has been.
  • Non-Patent Document 1 Endo, Terada: “Interactive candidate selection method for speech input”, Interaction 2003, pp. 195-196, 2003.
  • Non-Patent Document 2 Ando et al .: "Broadcasting-Youth Subtitle Production System Using Speech Recognition", Science Theory, Vol. J84-D-II, No. 6, pp. 877-887, 2001.
  • Patent Document 1 JP 2002-287792 A
  • Patent Document 2 JP 2004-309928 A
  • Patent Document 3 Japanese Patent Laid-Open No. 2002-297181
  • Patent Document 4 JP-A-6-301395
  • An object of the present invention is to provide a speech recognition apparatus, method, and program that enable a user to correct a recognition error due to speech recognition more efficiently and easily.
  • Another object of the present invention is to provide a speech recognition apparatus, method, and program capable of performing correction only by selecting a correct candidate during or after utterance.
  • Another object of the present invention is to always use a word even if the user does not find and point out a misrecognized part. It is an object of the present invention to provide a speech recognition apparatus, method, and program capable of displaying a competition candidate in real time on a screen and securing an opportunity for correction.
  • Still another object of the present invention is to provide a speech recognition apparatus and method capable of immediately recognizing visually the ambiguity of the recognition result of a word based on the number of word conflict candidates displayed on the screen, and To provide a program.
  • Another object of the present invention is to simultaneously select and recognize the speech recognition result and the word conflict candidate without the effort of finding the misrecognized portion, pointing out, judging the presented candidate, and selecting the selected candidate. Therefore, an object of the present invention is to provide a speech recognition apparatus, method, and program that enable efficient correction.
  • Another object of the present invention is to provide a speech recognition apparatus and method, and a program that can pause speech recognition whenever desired by speaking a specific voice during speech. .
  • the speech recognition apparatus of the present invention includes speech input means for inputting speech, speech recognition means, recognition result display means, and word correction means.
  • the voice input means includes, for example, a microphone and a signal converter that converts an analog signal from the microphone into a digital signal that can be processed.
  • the specific configuration of the voice input means is Cte.
  • the speech recognition means compares a plurality of words included in the speech input from the speech input means with a plurality of words stored in advance in the dictionary means according to a predetermined determination method, and It has a speech recognition function that recognizes the word with the highest probability of competition among the recognition results.
  • a predetermined determination method various known determination methods can be used. For example, a word graph based on speech input using a confusion network is divided into a plurality of word segments compressed into a linear format by acoustic clustering, and the contention probability described later is set for each of the plurality of word segments. It is preferable to use a determination method that determines the word with the highest probability of competition.
  • the recognition result display means has a function of displaying the recognition results recognized by the voice recognition means on the screen as word strings of a plurality of words.
  • the recognition result display means preferably has a function for displaying the recognition result of the voice recognition means on the screen in real time.
  • the word correcting means has a word correcting function for correcting a plurality of words having the highest contention probability constituting the word string displayed on the screen. This word correcting means is composed of competing word display command means, competing word selection means, and word replacement command means.
  • the competing word display command means selects one or more competing words having a competing probability that is close to the competing probability of the word having the highest competing probability among the competing candidates, and selects the corresponding competing word having the highest competing probability. It has a competing word display function to display it on the screen adjacent to.
  • the competing word selection means has a competing word selection function for selecting an appropriate correction word from one or more competing words displayed on the screen in accordance with a manual operation by the user.
  • the word replacement command means has a word replacement command function for instructing the speech recognition means to replace the corrected word selected by the competitive word selection means with the word having the highest competition probability recognized by the speech recognition means. Then!
  • the highest competition probability that constitutes the word string displayed on the screen and the highest competition probability as a competition candidate for correcting a plurality of words.
  • this correction word is replaced with the word having the highest contention probability recognized by the speech recognition means. . Therefore, according to the present invention, while looking at the word string displayed as a result of the speech recognition displayed on the screen, one or more competing word powers displayed near the word that determines whether or not correction is possible can also select the correction word. Therefore, since correction can be performed, correction can be performed in a short time. Therefore, it is possible to correct the recognition result in parallel with the speech recognition processing.
  • the method for determining the number of one or more competing words to be displayed on the screen is not particularly limited and is arbitrary. However, the lower the ambiguity of speech recognition, the fewer competing words. The higher the ambiguity of speech recognition, the more competing words. Therefore, the competitive word display command means It is preferable that the number of competing words displayed on the screen is changed in accordance with the distribution situation of the competing probability of the combined word. For example, if there is only one word with a high probability of competition, display that single word as a competitive word. Conversely, if there are many words with a high probability of competition, it is possible to consider the distribution situation. The number of competing words to be displayed within a wide range should be increased.
  • the competing word display command means has the highest contention probability, is close to the word contention probability, and has a small number of words with contention probability. Reduce the number of words and have the highest contention probability ⁇ Close to word contention probability
  • the competing word display command means has a function of displaying on the screen such that competing words are arranged in order of increasing competition probability above or below a plurality of words included in the word string. If the competing word display command means has such a function, it is possible to easily find the word necessary for correction from the competing words close to the word to be corrected in a short time, so the correction work time can be reduced. Further shortening is possible.
  • the competitive word display command means has a function including a skip candidate that enables selection of deleting the recognition result power because the word having the highest competitive probability is unnecessary among the competitive words. Is preferred.
  • the voice recognition means has a function to instruct the speech recognition means to delete the corresponding word having the highest contention probability from the recognition result by the voice recognition means. You can do it. In this way, the source word that frequently occurs in speech recognition (words that are not pronounced but that are recognized and displayed as if they were pronounced) should be deleted in the same way as competing words. Can do. Therefore, the correction work is further shortened. If the skip probability is given to the skip candidate, the display position of the skip candidate does not become constant.
  • the word graph based on the speech input is divided into a plurality of word sections compressed into a linear form by acoustic clustering using a confusion network.
  • a competition probability is obtained for each section of a plurality of words and a word having the highest competition probability is adopted, it is preferable to do the following. That is, if a sound that forms a part of one word can enter a gap between two words, the sound that forms a part of one word is included in one of the two word sections.
  • a skip candidate is automatically selected so that temporal consistency can be obtained in the other word interval of the two word intervals. . In this way, it is possible to automatically delete the word that appears in the adjacent section of the corrected section, and the number of correction operations by the user can be minimized.
  • the recognition result display means preferably has a function of displaying the recognition result on the screen in real time.
  • the word correction means also has a function of displaying the competing words on the screen in real time together with the display of the recognition result on the screen by the recognition result display means. In this way, speech recognition can be corrected in parallel with the user's utterance.
  • the previously determined competitive word may be inappropriate when viewed in relation to the corrected word. Therefore, when some words are corrected by the word correcting means in the competing word display command means, the corrected words in the word string are again regarded as the words that are correct by the user, and the conflicting word display command means again. It is preferable to provide a function for reselecting. By providing this function, it is possible to change competing words for sections that have not been corrected yet to those that match the words corrected by the user, so that the subsequent correction work can be further facilitated. . In this case, it is preferable to provide the following functions in the competitive word display command means.
  • the competing word display command means has a function to select as a word and replace it with the competing word displayed on the screen before or to add to the competing word displayed on the screen before. preferable. In this way, it becomes possible to display a more appropriate word as a competing word between two adjacent words in conjunction with the correction of one word in the word string, and the correction work is further facilitated.
  • the speech recognition means stores the word corrected by the word correction means, information on the correction time, and the posterior probability for the corrected word as accumulated data, and uses these accumulated data again. It is preferable to further have a function of performing voice recognition. If such a function is added, even if the original correct answer is not obtained as a competitive candidate for a certain section in the first recognition, new information obtained from the user's correction processing card is obtained.
  • the voice recognition used has the advantage that it can be presented to the user as a recognition result or a competitive candidate.
  • a function is added to the voice recognition means that temporarily stops the voice recognition process by inputting a specific voice uttered by the speaker while the voice is being input, and allows correction by the word correction means. May be. If such a function is provided, if time is required for the correction work, the voice recognition process can be temporarily stopped by uttering a specific voice. It can be executed without rushing to match.
  • the voice recognition means is provided with, for example, continuous sound determination means for determining that the input voice is a continuous sound that continues continuously for a certain time or longer.
  • the speech recognition process is paused, and when the continuous sound determination means determines that a sound other than continuous sound has been input after determining the continuous sound, State power before stopping
  • the function to continue the speech recognition process may be added to the speech recognition means. In this way, you can use normal words and words that are often pronounced when they are clogged up, smoothing them out by using the grudge (prolonging the sound that was pronounced when the words were clogged). It is possible to pause speech recognition.
  • the voice recognition means stores the word that has been corrected by the word correction means and the position information or time information of the word in the input voice, and in the second voice recognition, the saved position information or time It is desirable to have a function that makes it easy to recognize words related to the word by dynamically enhancing the language probability of the word in the information
  • the speech recognition means is provided with an acoustic adaptation processing means for performing an online acoustic adaptation process using the recognition result of the recognition process as a teacher signal at the same time when speech is inputted. .
  • This acoustic adaptation processing means has a highly accurate acoustic adaptation function by generating a more accurate teacher signal in real time with almost no recognition errors by means of word correction means. I prefer to use it. By using such acoustic adaptation processing means, it is possible to minimize degradation of adaptation performance due to recognition errors in the teacher signal, which has been a problem with conventional online adaptation.
  • a speech recognition step executed by the speech recognition apparatus of the present invention, a speech recognition step, a recognition result display step, and a word correction step are executed.
  • the speech recognition step according to a predetermined determination method, a plurality of words included in the input speech are respectively compared with a plurality of words stored in the dictionary means in advance, and the most competitive probability is selected from among the competitive candidates. A high word is used as a recognition result.
  • the recognition result display step the recognition result recognized by the voice recognition means is displayed on the screen as a word string of a plurality of words.
  • the word correction step a plurality of words having the highest contention probability constituting the word string displayed on the screen are corrected.
  • a competitive word having the highest contention probability and closest to the word contention probability is selected from among the competitive candidates, and the corresponding word having the highest contention probability is adjacent to the word on the screen.
  • Competing word display step displayed on the screen Competing word selection step for selecting an appropriate correction word from the competing words displayed on the screen according to the manual operation by the user, and the correction word selected in the competing word selection step.
  • a word replacement step of replacing the word with the highest competitive probability recognized in the speech recognition step and displaying it on the screen is executed.
  • a program of the present invention for causing a computer to execute a function of recognizing speech using a computer and displaying a recognition result on a screen as a character is obtained in advance by using a plurality of words included in the input speech.
  • a speech recognition function that compares each word with a plurality of words stored in the dictionary means and uses the word as the recognition result with the highest competition probability among the competition candidates;
  • a recognition result display function that displays the recognition result recognized by the voice recognition function as a word string of a plurality of words on the screen, and a correction of the plurality of words having the highest contention probability constituting the word string displayed on the screen
  • the word correction function selects one or more competing words having the highest contention probability and a contention probability close to the word contention probability from among the candidate candidates.
  • the corresponding conflict word display function that is displayed on the screen adjacent to a word and the one or more conflict words displayed on the screen according to a manual operation by a user.
  • a competitive word selection function for selecting an appropriate correction word and the correction word selected in the competitive word selection step as the most competitive probability previously recognized in the speech recognition step. Is composed of a word replacement function to be displayed on the screen is replaced with the high word to cause the computer to perform, Ru.
  • a correction word is selected from one or more competing words displayed near a word that determines whether correction is possible. Since the correction can be performed by selecting, the correction can be performed in a short time. Therefore, according to the present invention, the recognition result can be corrected in parallel with the speech recognition processing.
  • FIG. 1 shows a function realization means implemented in a computer when an example of an embodiment of a speech recognition apparatus of the present invention that executes the speech recognition method and program of the present invention is implemented using the computer. It is the block diagram shown schematically.
  • FIG. 2 is a diagram showing a display state of competitive candidates in the embodiment.
  • FIG. 3 is a diagram showing an example of a word graph which is an intermediate result generally used in speech recognition.
  • FIG. 4 (A) is a diagram used for explaining the case where the word graph is acoustically clustered, and (B) is a diagram conceptually showing a state compressed into a linear form by clustering.
  • FIG. 5 is a flowchart showing a basic algorithm of an example of a program installed in a computer when the speech recognition method of the present invention is realized by the computer.
  • FIG. 6 is a flowchart showing details of step ST2 in FIG. 5 together with step ST1.
  • FIG. 7 A flowchart showing the details of part of step ST2 when skip candidates are introduced.
  • FIG. 8 is a flowchart showing an example of details of step ST5.
  • FIG. 9 is a flowchart showing an algorithm of another method when configuring step ST5.
  • FIG. 10 is a flowchart showing an example of details of step ST7 and step ST8 when a skip candidate is inserted.
  • FIG. 11 is a flowchart showing the operation of step ST8 when considering the case where a sound constituting a part of one word can enter either of two word sections.
  • FIG. 12 is a flowchart showing the algorithm of another example program when skip candidates are automatically selected.
  • FIG. 13 This is a flow chart showing the algorithm of the program for realizing the sound pause function.
  • FIG. 14 is a flowchart showing the algorithm of a program for implementing a new speech recognition method.
  • FIG. 15 is a flowchart showing a program algorithm in the case of decoding using dynamic enhancement of the N-gram probability of a correction word.
  • FIG. 17 A flowchart showing an algorithm when applying the acoustic adaptive processing means to the embodiment of FIG.
  • FIG. 18 is a diagram showing an interface system component (process) and an overall processing flow.
  • FIG. 19 (A) and (B) are diagrams showing examples of display screens when the pause function during speech is not used.
  • FIG.20 (A) to (D) show the display screens when the pause function during speech is used.
  • FIG. 22 is a diagram showing a mobile terminal device that can be used to implement the present invention.
  • FIG. 1 is a schematic diagram of function realization means implemented in a computer when an example of an embodiment of the speech recognition apparatus of the present invention that executes the speech recognition method and program of the present invention is implemented using a computer. It is the block diagram shown in FIG.
  • the speech recognition apparatus 1 includes speech input means 3 for inputting speech, speech recognition means 5, recognition result display means 7, and word correction means 9.
  • the voice input means 3 includes, for example, a microphone and a signal converter that converts an analog signal of microphone power into a digital signal that can be processed.
  • the voice recognition unit 5 includes a voice recognition execution unit 11 and a continuous sound determination unit 13.
  • the voice recognition execution means 11 of the voice recognition means 5 is a dictionary means provided with a plurality of words included in the voice input from the voice input means 3 in the data storage means 12 according to a predetermined determination method. Compared to multiple words stored in advance (not shown) Compared to the competition candidates, it has the highest contention probability! It has a speech recognition function that recognizes a word as a recognition result! (Speech recognition step of the method of the present invention: speech recognition of the program of the present invention Execution of the function).
  • the “predetermined determination method” various known determination methods can be used.
  • a word graph based on speech input using a confusion network is divided into a plurality of word segments compressed into a linear form by acoustic clustering, and the contention probability described later for each of the plurality of word segments.
  • the determination method that determines the word with the highest probability of competition is used for this predetermined determination method.
  • the competitor candidates may be generated by extracting from the internal state of the speech recognition execution means 11 a plurality of other candidates other than just the most likely (most likely) word string.
  • the intermediate representation (usually referred to as “intermediate results”) representing such internal states is usually very large, especially for continuous speech recognition targeting large vocabularies.
  • Figure 3 shows an example of a “word graph” that is an intermediate result commonly used in speech recognition to show how large it is.
  • a word graph is a representation of a plurality of candidates whose possibilities have been examined by speech recognition in a graph structure with links as words.
  • Figure 3 shows an actual word graph generated for a relatively short speech. It can be seen that the structure is complex and the number of candidates is enormous.
  • the competitive relationship between candidates cannot be expressed explicitly, so effective candidate presentation such as speech correction is impossible. Therefore, in the present embodiment, as a new LV that solves such a problem, as an intermediate result, a confusion network (confusion network) in which the internal state of the speech recognition execution means 11 is converted into a simple and highly accurate network structure. L.
  • the confusion network can be obtained by compressing the word graph shown in FIG. 4 (A) into a linear form as shown in FIG. 4 (B) by acoustic clustering. In Fig.
  • “sil” represents silence at the start and end of utterance, and one letter of the alphabet represents the word name on the link of the graph.
  • “” on the network in FIG. 4B is a skip candidate to be described later.
  • Acoustic clustering is performed in the following two steps. This step is based on "Finding Consensus in 3 ⁇ 4peecn Recognition: Word Error Minimization and by L. Mangu, E. Brill and A. Stolcke.
  • Intra-word clustering 'Step Cluster links that have the same word name and overlap in time. Temporal similarity is used as a cost function.
  • a posteriori probability is calculated for each clustered class (word segment).
  • the calculated values represent the existence probability in each class or the competition probability with other candidates in the class.
  • the links of each class are sorted according to the probability of existence, and the links with the highest possibility as recognition results are placed higher.
  • the final recognition result shown in the top row of Fig. 2 is obtained.
  • the competitive candidate in Fig. 2 is obtained.
  • each candidate in a class is not necessarily a recognition result of the same section in time.
  • a candidate that crosses two classes in time is assigned to one of the classes.
  • a candidate of a class that is not selected by the user in the vicinity so that temporal consistency with the utterance period can be obtained. Automatically and minimizes the number of corrective actions
  • the recognition result display means 7 in FIG. 1 has a function of displaying the recognition results recognized by the speech recognition means 5 as a word string of a plurality of words on a screen (speech recognition result).
  • table Indication step execution of voice recognition result display function).
  • FIG. 2 is a diagram showing an example of the speech recognition result of the present embodiment displayed on a screen (not shown) and an example of correction thereof.
  • the recognition result display means 7 of this embodiment has a function of displaying the recognition result of the voice recognition means 5 on the screen in real time.
  • the word correction means 9 also has a function of displaying the competing words on the screen in real time together with the display of the recognition result by the recognition result display means 7 on the screen. In this way, speech recognition can be corrected in parallel with the user's utterance.
  • the word correction means 9 has a word correction function for correcting a plurality of words having the highest contention probability constituting the word string displayed on the screen (word correction step: execution of the word correction function).
  • the word correcting means 9 used in the present embodiment is composed of a competitive word display command means 15, a competitive word selection means 17, and a word replacement command means 19.
  • the competing word display command means 15 selects one or more competing words having the highest probability of competing and close to the competing probability of the words from among the competing candidates, and selects the corresponding word having the highest competing probability. It has a competing word display function to display it on the screen adjacent to the! / ⁇ (execute competing word display step). In other words, in the present embodiment, as shown in FIG.
  • a number of words under the “normal recognition result”, which is a word string composed of words with the highest contention probability recognized by the speech recognition means 5, are displayed. Select one or more competing words that have a contest probability close to that of the word in the word sequence (the word with the highest contention probability) from among the competing candidates.
  • the competing word selection means 17 has a competing word selection function for selecting an appropriate correction word from one or more competing words displayed on the screen according to a manual operation by the user! Step execution). Then, the word replacement command means 19 replaces the corrected word selected by the competitive word selection means 17 with the word having the highest competition probability recognized by the speech recognition means 5 (words constituting a word string as a normal recognition result).
  • the speech recognition means 5 has a word replacement command function that instructs the speech recognition means 5 to replace (execution of a word replacement command step).
  • the word displayed on the screen by the recognition result display means 7 is replaced with the corrected word.
  • the first word “hot spring” has a speech recognition error.
  • the competition candidates displayed for the first word the first " “Speech” is the word with the highest competition probability among the competition candidates, and the lower the score, the lower the competition probability.
  • the blank is a skip candidate that will be described in detail later. When this skip candidate is selected, the word in the word string is deleted.
  • the speech recognition means 5 deletes the corresponding word with the highest contention probability from the recognition result by the speech recognition means 5. It suffices to provide a function for instructing means 5. In this way, the word that often appears in speech recognition (words that are not pronounced but are recognized and displayed like a pronounced key) should be deleted in the same way as competing words. Can do. Therefore, the correction work is further shortened. If the skip probability is given to the skip candidate, the display position of the skip candidate does not become constant. Therefore, the selection of competing words and the deletion of words by word string force can be executed at the same level, and the time required for the user's correction work can be further shortened.
  • the competing word that has been determined and displayed on the screen may become inappropriate when viewed in relation to the corrected word. Therefore, when some words are corrected by the word correction means 9 in the competitive word display command means 15, the corrected words are again conflicted as words that are originally correct and corrected by the user in the word string. It is preferable to provide a function for reselecting words. By providing this function, it is possible to change the competing word for the word to a word that matches the corrected word, and to further facilitate the subsequent correction work. In this case, it is preferable that the competitive word display command means 15 is further provided with the following functions.
  • the conflict word display command means 15 is provided with a function to select again as a word and replace the conflict word that is displayed on the screen before, or to add a new one to the conflict word previously displayed on the screen. preferable. In this way, it becomes possible to display a more appropriate word as a competing word between two adjacent words in conjunction with correction of one word in the word string, and correction work is further facilitated.
  • the competition candidate correction function described above can be referred to as an unselected candidate automatic correction function.
  • speech recognition if a certain word is mistaken, the wrong word is often recognized as a subsequent candidate by being dragged by the word (for example, “voice input” ⁇ “ Hot spring bathing ").
  • the verbal connection probability with the currently selected! /, Candidate is calculated for each candidate before and after the candidate selected by the user, and the candidate with the largest value is calculated. It will be corrected automatically. For example, in FIG.
  • FIG. 5 is a flowchart showing a basic algorithm of an example of a program installed in a computer when the speech recognition method of the present invention is realized by the computer.
  • speech is first recognized (step ST1).
  • a competition candidate is generated based on the speech recognition result (step ST2).
  • one word string composed of words with the highest contention probability is displayed as a recognition result on the screen (step ST3).
  • a candidate for correcting a plurality of words having the highest contention probability that constitutes a speech-recognized word string one or more competing words having a contention probability close to that of the word having the highest contention probability are selected. It is selected and it is determined whether or not the competition candidates are displayed on the screen (step ST 4).
  • step ST5 the process returns from step ST4 to step ST1, and only the normal speech recognition result is displayed on the screen.
  • step ST5 When screen display is selected, one or more competing words are displayed on the screen adjacent to the corresponding word having the highest contention probability (step ST5).
  • step ST6 determines whether there is an error in the recognition result
  • step ST7 the process proceeds to step ST7, and on the screen according to the user's manual operation.
  • An appropriate correction word is selected from one or more competing words displayed in (Step ST 7). As a result, the corrected word is replaced with the word having the highest competition probability recognized by the speech recognition means (step ST8).
  • step ST6 If it is determined in step ST6 that there is no need for correction (when a predetermined time has elapsed after outputting the competition candidates on the screen, the process returns to step ST1). After one word is corrected, further correction If there is, return from step ST9 to step ST6. If there is a voice input, steps ST1 to ST5 are executed while correction is being performed, and new word strings continue to be displayed on the screen.
  • FIG. 6 shows details of step ST2 in the present embodiment together with step ST1.
  • a word graph is first generated (step ST21).
  • acoustic clustering is performed on the word graph to generate a confusion network (step ST22).
  • the word having the highest contention probability is picked up from each word section of the confusion network, and the word string is used as the recognition result (step ST23). If there is no further voice input, the process ends (step ST24).
  • the word graph based on speech input is divided into a plurality of word segments compressed into a linear form by acoustic clustering, and the competition probability is obtained for each of the plurality of word segments.
  • Determine high words That is, if a sound that forms part of one word can enter either of the two word sections, the sound that forms part of one word is included in one of the two word sections.
  • a skip candidate is automatically selected in the other word interval to ensure temporal consistency.
  • FIG. 7 shows some details of step ST 2 when a skip candidate is introduced.
  • step ST221 “Perform acoustic clustering on the word graph”, “Calculate the competitive word for each section and the competitive probability for each competitive word. At the same time, “probability that word does not exist” is calculated as 1 (total contention probability in the interval) ”for each interval. Thereafter, a confusion network is generated in step ST222, and “probability that no word exists” is set as a skip candidate probability in step ST223.
  • FIG. 8 is a flowchart showing an example of details of step ST5 described above.
  • the number of one or more competing words (competition candidates) displayed on the screen is not the same for all words.
  • the competing word display command means 15 is configured to change the number of competing words displayed on the screen in accordance with the distribution situation of the competing probability of competing words. For example, if there is only one word with a high probability of competition, it is sufficient to display that single word as a competitive word.
  • step ST5 a competition candidate is composed of a plurality of competition words in each word section, and each competition word is given a competition probability in the section to which it belongs.
  • step ST52 it is determined whether the number of competing words in each word section is large. If there are a large number of competing words, in step ST53, a large number of competing words are displayed on the screen, and the number of competing words to be displayed is increased and presented to the user to indicate that there is a high possibility of an error. .
  • step ST54 If the number of competing words is small, in step ST54, the competing words are hardly displayed on the screen, and the section that is likely to be correct is presented to the user by reducing the number of competing words to be displayed. . In this way, the possibility of correction with the number of competing words displayed is divided at a glance, so the user needs to pay attention to all the words included in the word string and perform correction work. Disappear. Therefore, it is possible to shorten the time required for word correction and the time required for correction.
  • step ST5 constituting the competing word display command means 15, on the screen so that the competing words are arranged in order with high probability of competing on the upper or lower side of the plurality of words included in the word string. It is preferable to have a display function. If the competing word display command means 15 has such a function, it is possible to easily find the word necessary for correction from the competing words in a short time, close to the word to be corrected. Can be further shortened.
  • FIG. 9 shows an algorithm of another method in the case of configuring step ST5.
  • step ST52 After assigning a competition probability to a competition word, it is determined in step ST52 whether the competition probability is greater than a certain probability. If the contention probability of the contention word is greater than a certain probability, it is displayed on the screen as a contention candidate in that section from step ST53. If the competitive probability of the competitive word is smaller than a certain probability, it is not displayed on the screen at step ST54 '. Even in this case, skip candidates should be displayed. May be.
  • FIG. 10 shows an example of details of step ST7 and step ST8 when skip candidates are inserted.
  • Step ST7 is composed of steps ST71 to ST73
  • step ST8 is composed of steps ST81 and ST82.
  • step ST71 it is determined whether or not the word to be corrected is a word mistakenly inserted in a section where nothing originally exists. If it has been inserted by mistake, proceed to step ST72 and select “skip candidate”. As a result, in step ST81, the word is deleted from the word string. If it is not an erroneously inserted word, clicking on an appropriate conflicting word in step ST73 replaces the word in the word string with the selected correction word (step ST82).
  • FIG. 10 shows an example of details of step ST7 and step ST8 when skip candidates are inserted.
  • step ST8 shows details of step ST8 when considering the case where the sound constituting a part of one word can enter either of the two word sections.
  • a temporal overlap is formed in step ST801 for adjacent intervals of the selected word.
  • step ST802 it is determined whether or not the temporal overlap is more than half of the interval of adjacent words. If the temporal overlap is less than half, it is assumed that the word selected in step ST803 straddles the adjacent sections in time, and skip candidates are automatically selected for the adjacent sections.
  • step ST804 the selected word in the current section is displayed on the screen as a recognition result, and the original recognition result is deleted and displayed in the adjacent section on the screen. If the temporal overlap is less than half, in step ST804, the selected word in the current section is displayed on the screen as a recognition result.
  • FIG. 12 is a flowchart showing a program algorithm of another example in the case of automatically selecting skip candidates.
  • step ST811 it is determined whether or not the contention probability of recognition results of adjacent word sections is equal to or greater than a certain value. If the contention probability is not greater than a certain level, the process proceeds to step ST812, and the linguistic connection probability (N-gmm) for each contention word in the adjacent word section of the selected word is calculated.
  • step ST813 the word having the highest linguistic connection probability is automatically selected as the recognition result of the adjacent section.
  • the speech recognition result display and the competition candidate display shown in FIG. Therefore, the user's utterance is input, and the results shown in the upper part of Fig. 2 are immediately presented (displayed sequentially from left to right with the start of voice input). Can be implemented.
  • a list of “competitive candidates” is always displayed below it, so it is possible to select competitive candidates. Can be corrected.
  • the normal recognition result is divided into sections of each word, and the competition candidates for that word are displayed aligned below.
  • the number of competing candidates reflects the ambiguity of the section, and a larger number of candidates are displayed in areas where the voice recognition means 5 is ambiguous and unconfident. Therefore, the user thinks that there is likely to be a misrecognition where there are many candidates, and can watch carefully. On the other hand, there are few candidates that are confident that the speech recognition means 5 is correct, so there is no unnecessary confusion for the user. By presenting the recognition result in this way, the user can easily correct the recognition error only by an operation of “selecting” the correct answer from the competitive candidates.
  • the recognition result may not be displayed until the utterance is completed. Even if the results were displayed, there was no indication of other possibilities such as competitive candidates, and it was not possible to move on to error correction until the utterance was completed and the power results were examined. For this reason, it has been pointed out that voice input has the disadvantage that more time is required for error correction work than keyboard input. Factors other than the correction time itself In addition,
  • the intermediate result of recognition is continuously fed back in real time with a competition candidate during utterance, and the user can also select it. Errors can be corrected immediately. As a result, the work time for the two points mentioned above is greatly reduced. In addition, the time required for actual correction also has the advantage that it is very short because it only “selects” already displayed candidates.
  • the voice recognition means 5 temporarily receives a voice by inputting a specific voice uttered by the voice V.
  • the voice recognition processing is stopped and the function of allowing correction by the word correction means 9 is provided. Therefore, the sound recognition means 5 is provided with continuous sound determination means 13 for determining whether the input sound is a continuous sound that continues continuously for a certain time or longer.
  • the voice recognition executing means 11 pauses the speech recognition processing, and after the continuous sound judging means 13 judges the continuous sound, a sound other than the continuous sound is heard.
  • the state power before the pause is provided with a function for continuing the speech recognition process.
  • FIG. 13 shows an algorithm of a program for realizing this function.
  • speech recognition is started in step ST11.
  • step ST12 it is determined whether or not the user has a special sign indicating a pause (input of a specific voice such as voiced pause: for example, continuous tone input continuous with “e”). If this determination is Yes, the process proceeds to step ST13, and the speech recognition process is temporarily stopped. Then, the processing contents at the current stage are saved.
  • step ST2 ′ the competitor candidates up to the current stage are generated, and in step ST5 ′, the competitor candidates up to the current stage are displayed on the screen. In this example, steps corresponding to step ST4 in FIG. 5 are omitted.
  • step ST12 If it is determined in step ST12 that there is no special signature, normal speech recognition is performed in step ST13 ′. If the processing contents up to the previous time have been saved, recognition is resumed from that point. Then proceed to steps ST2 and ST5 to display the competition candidates on the screen. When the competitor candidates are displayed on the screen, the process proceeds to step ST6 in FIG. In this case, in step ST6, there is no error in the recognition result.
  • V is judged by stopping a special sign (input of a specific voice: for example, input of a continuous tone that continues with “E”).
  • a specific method for realizing the pause function during speech will be described.
  • a voiced pause speaking
  • a certain silent period is detected immediately after that, the operation of the speech recognition means 5 is paused and the current recognition process (the hypothesis information, search space up to that point) Evacuate current location information).
  • the section where the voiced pause is continuously spoken is not subject to speech recognition and is skipped.
  • the speech recognition process is resumed from the saved recognition process, and the recognition process is continued until the end of the utterance is detected.
  • Real-time voiced pause detection method can be used. This method detects the two acoustic features of voiced pauses (vowel extension) (small variation in fundamental frequency and small deformation of the spectral envelope!) In real time by bottom-up signal processing. For this reason, it is possible to detect the extension of any vowel without depending on the language.
  • the recognition process can be paused at the time the user intends during the utterance. And when the next utterance begins, your power can be operated as if the utterance before the pause continued.
  • voiced pause [speech (arbitrary vowel extension)], which is one of the non-linguistic information in speech, Adopted as a trigger for pause function.
  • This voiced pause is useful when you want the other party to wait for a while, This is often done when thinking in the middle of a job. As a result, the user can naturally pause to select the correct candidate or to consider subsequent utterances.
  • FIG. 14 is a flowchart showing the algorithm of a program for implementing this method.
  • correction processing when correction processing is executed by the user in correcting the speech recognition result, the corrected word and time information, the score (post-probability) for the word, etc. are stored (step ST106).
  • Decoding is performed again using the information (voice recognition processing for the same voice data) (step ST107).
  • FIG. 15 is a flowchart showing the algorithm of the program for implementing this method.
  • w is the word selected by the user during the correction process (original correct answer), and w at the start and end of input speech.
  • the intervals are Ts and Te, respectively.
  • the word candidate at a certain time is w
  • the word immediately before it is w
  • prev prev Time is ts and end time is te.
  • language score log likelihood
  • C (0 ⁇ C ⁇ 1) is a weighting coefficient for the bigram value, and in the present specification, this is called an “interaction coefficient”.
  • the word that is linguistically related to the word is succeeded by dynamically enhancing the N-gram probability value of the word corrected by the user.
  • the N-gram probability value of the word corrected by the user is dynamically strengthened (multiplied by a certain factor), so that the word is language-constrained.
  • Related words can easily remain in the search beam as subsequent word candidates, and words that cannot be corrected by the original decoding can be corrected.
  • a teacher signal (speech content text) used for adaptation is generated.
  • teacher signals are automatically generated by recognition using existing models, resulting in “incomplete” utterance content texts due to recognition errors, resulting in significant degradation in adaptation performance. End up.
  • robust adaptation to the speaker and the environment can be realized by incorporating online adaptation into the speech recognition correction framework.
  • the correction of the speech recognition result of this embodiment is effective. It is possible to correct recognition errors efficiently and in real time, and by using the recognition result corrected by the user as a teacher signal, it is possible to perform highly accurate adaptive processing with “complete” utterance content text.
  • FIG. 16 is a flowchart showing an algorithm in the case where acoustic recognition processing means is provided in the speech recognition means 5 in accordance with the above idea.
  • FIG. 17 is a flowchart showing an algorithm when this acoustic adaptation processing means is applied to the embodiment of FIG.
  • the acoustic adaptation processing means performs recognition processing and at the same time performs online acoustic adaptation processing using the recognition result of the recognition processing as a teacher signal (steps ST01 to ST03).
  • this acoustic adaptation processing means generates an accurate teacher signal with no recognition error in real time when the correction process is executed by the word correction means 9 (steps ST2 and ST5 to ST8). In this way, a highly accurate acoustic adaptation function is demonstrated.
  • Figure 18 shows the system components (process) of the interface and the overall processing flow.
  • the process is indicated by the letter in the block in the figure, and can be executed by a plurality of computers on the network (LAN) in a distributed manner.
  • RVCP Remote Voice Control Protocol
  • LAN network
  • RVCP Remote Voice Control Protocol
  • enables efficient sharing of spoken language information on the network ["Speech Complementation by Goto, Ito, Akiba and Hayami" (Computer software, Vol. 19, No. 4, pp. 10-21, 2002.)] was used.
  • the acoustic signal input to the microphone equal force audio input unit is transmitted as a packet on the network.
  • Feature extraction unit (included in voice recognition unit 5 in FIG. 1), voiced pause detection unit (corresponding to continuous sound determination unit 13 in voice recognition unit 5 in FIG. 1), speech segment detection unit (voice in FIG. 1) (Included in recognition means 5) receives the packet at the same time, and obtains the acoustic feature (MFCC), voiced pause, and utterance start / end.
  • MFCC acoustic feature
  • voiced pause voiced pause
  • utterance start / end receives the packet at the same time, and obtains the acoustic feature (MFCC), voiced pause, and utterance start / end.
  • a confusion network is generated as an intermediate result, and the information is transmitted as a packet to the interface management unit (included in the word correction means 9 in FIG. 1).
  • the interface manager displays candidates and allows selection by clicking with the mouse or touching the panel with a pen or finger.
  • the language model was CSRC software 2000 version [Kawahara 20000 words learned from newspaper article texts from another book, “Outline and Evaluation of Continuous Speech Recognition Consortium 2000 Version Software” (Journal of Information Processing, 2001—SLP—38— 6, 2001 .;)]
  • the back-off constraint N-best search algorithm [Ogata, Ariki's "most popular word in large vocabulary continuous speech recognition back-of Efficient N—best search method using f-connection, (Science theory, Vol. 84-D-II, No. 12, pp. 2489—2500, 200 1 .;)] was used so that a confusion network could be generated in real time.
  • Fig. 19 (A) and (B) show the display screen when the pause function during speaking is not used
  • Fig. 20 (A) to (D) show the display screen when the pause function during speaking is used.
  • another line is added on the display portion (referred to as “candidate display portion”) corresponding to the display of FIG.
  • This shows the final speech input result after selecting and correcting candidates.
  • the candidate display area the background of the currently selected word is colored. When nothing is selected, the most likely word string at the top of the candidate display section is selected.
  • the final voice input result at the top of the screen is rewritten as well as the background of the candidate is colored (in FIG. 19 and FIG. 20, the part corrected by the selection operation is rewritten). Just change the color of the text and display it easily.
  • the selection of the competitive word is performed using the mouse.
  • a portable terminal device MB such as a PDA

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

 本発明は、音声認識による認識誤りを、ユーザがより効率的に且つ容易に訂正できる音声認識装置を提供する。音声認識手段5は、音声入力手段から入力された音声に含まれる複数の単語を予め辞書手段に記憶されている複数の単語とそれぞれ比較し、競合候補の中から一番競合確率の高い単語を認識結果とする。単語訂正手段9は、画面に表示された単語列を構成する複数の単語を訂正する単語訂正機能を有している。競合単語表示指令手段15は、競合候補の中から単語列の単語の競合確率に近い競合確率を持つ競合単語を選び、それを対応する単語に隣接して画面上に表示させる。競合単語選択手段17は、画面上に表示された1以上の競合単語から適切な訂正単語を選択する。単語置き換え指令手段19は、競合単語選択手段17により選択された訂正単語を、音声認識手段5により認識された単語と置き換える。  

Description

明 細 書
音声認識装置及び方法ならびにプログラム
技術分野
[0001] 本発明は、画面に表示した音声認識結果を訂正することを可能にする音声認識装 置及び方法並びにプログラムに関するものである。
背景技術
[0002] 従来より、計算機による音声認識は、必ず認識誤りを起こすことが知られている。他 の人の話を聞き間違うことからもわ力るように、人間ですら音声を 100%正しく認識で きていない。これは、人間の音声には、他の単語と紛らわしい発声や同音異義語を 含む発声、不明瞭な発声が含まれてしまうからである。人間同士の場合には、音声 対話によって容易にこうした誤認識(聞き間違 、)の問題を解決して 、る。しかしなが ら、計算機と人間同士のような柔軟な音声対話をすることは難しい。音声認識技術を 改良してどんなに認識率を上げていったとしても、人間にとって、常に明瞭で曖昧性 のない発声をし続けることが極めて困難である以上、認識率は決して 100%にはなら ない。したがって、音声認識を日常的に使える音声認識装置を作るためには、必ず どこかで生じる誤認識を容易に訂正できるようにすることが不可欠である。
[0003] そこで、従来力 認識結果を訂正する技術は種々提案されてきた。例えば、市販の ディクテーシヨンソフトでは、ユーザが認識結果のテキスト表示を見て、誤認識を発見 したら、その区間をマウス操作や音声入力で指定することができる。すると、その部分 の他候補が表示されるので、ユーザは正しい候補を選択して訂正できる。非特許文 献 1に示された技術では、これを発展させて、発話の終了後にその認識結果を単語 境界の線で区切った表示をし、力な漢字変換で単語の区切りを修正するように、その 境界をマウスで移動できるようにしている。この場合、正しい候補にたどり着ける可能 性は高くなつたものの、誤認識箇所の指定、単語境界の変更、候補の選択と、ユー ザが訂正するための手間は増えている。一方、非特許文献 2に示された技術では、 音声認識を利用した-ユース字幕放送のために、実用的な認識誤り修正システムを 実現している。しかし、この技術では、二人の分業を前提とし、一人が誤認識箇所を 発見してマーキングし、もう一人がその箇所の正解をタイピングする必要があつたた め、個人が自分の音声入力を訂正する目的では使えな力つた。このようにいずれの 従来技術も、まず最初に、ユーザが誤認識箇所を発見して指摘し、次に、その部分 の他候補を判断して選択したり、タイピングして修正すると 、つた手間を要して 、た。
[0004] なお特許文献 1 (特開 2002— 287792号公報)には、音声認識の訂正を音声入力 で行う技術が開示されている。また特許文献 2 (特開 2004— 309928号公報)には、 音声認識した結果、出力候補単語が複数ある場合に、出力候補単語を表示部に表 示し、出力候補単語から所望の単語を選ぶことを話者に選択することを指示する機 能を備えた電子辞書装置が示されている。さらに特許文献 3 (特開 2002— 297181 号公報)及び特許文献 4 (特開平 6— 301395号公報)には、音声認識の認識率の向 上のために、コンフュージョンマトリックスを利用する技術が示されている。
[0005] 非特許文献 1 :遠藤、寺田:"音声入力における対話的候補選択手法"、インタラクショ ン 2003論文集、 pp. 195- 196, 2003.
非特許文献 2:安藤他: "音声認識を利用した放送用-ユース字幕制作システム",信 学論, Vol. J84-D-II, No. 6, pp. 877-887, 2001.
特許文献 1:特開 2002— 287792号公報
特許文献 2:特開 2004— 309928号公報
特許文献 3:特開 2002— 297181号公報
特許文献 4:特開平 6— 301395号公報
発明の開示
発明が解決しょうとする課題
[0006] 従来の音声認識技術では、音声認識による認識誤りを、ユーザがより効率的に且 つ容易に訂正できるものはな力つた。
本発明の目的は、音声認識による認識誤りを、ユーザがより効率的に且つ容易に 訂正できる音声認識装置及び方法並びにプログラムを提供することにある。
本発明の他の目的は、発話中あるいは発話終了後に正しい候補を選択するだけで 訂正ができる音声認識装置及び方法並びにプログラムを提供することにある。
本発明の他の目的は、ユーザが誤認識箇所を発見して指摘しなくても、常に単語 の競合候補をリアルタイムに画面に表示して訂正の機会を確保することができる音声 認識装置及び方法並びにプログラムを提供することにある。
[0007] 本発明の更に他の目的は、画面に表示する単語の競合候補の個数によって、その 単語の認識結果の曖昧さを視覚により直ちに認識することを可能にする音声認識装 置及び方法並びにプログラムを提供することにある。
本発明の他の目的は、誤認識箇所の発見、指摘、提示された候補の判断、選択と いった手間を力 4ナずに、音声認識結果と単語の競合候補を同時に見て選択するだ けで、効率良く訂正できることを可能にする音声認識装置及び方法並びにプログラム を提供することにある。
本発明の別の目的は、発話中に特定の音声を発話することにより、いつでも好きな ときに音声認識を一時停止することを可能にする音声認識装置及び方法並びにプロ グラムを提供することにある。
課題を解決するための手段
[0008] 本発明の音声認識装置は、音声を入力するための音声入力手段と、音声認識手 段と、認識結果表示手段と、単語訂正手段とを備えている。音声入力手段は、例え ば、マイクロフォンやマイクロフォンからのアナログ信号を信号処理可能なデジタル信 号に変換する信号変換器等を含んで構成される。音声入力手段の具体的な構成は Cte 。
[0009] 音声認識手段は、予め定めた判定手法に従って、音声入力手段から入力された音 声に含まれる複数の単語を予め辞書手段に記憶されている複数の単語とそれぞれ 比較し、競合候補の中から一番競合確率の高い単語を認識結果とする音声認識機 能を有している。ここで「予め定めた判定手法」としては、公知の各種の判定手法を 用いることができる。例えば、コンフュージョン 'ネットワークを用いて音声入力に基づ く単語グラフを音響的なクラスタリングによりリニアな形式に圧縮した複数の単語の区 間に分け、複数の単語の区間ごとに後述する競合確率を求めて、一番競合確率の 高 、単語を決定する判定手法を用いるのが好まし 、。コンフュージョン 'ネットワーク を用いると、大語彙、小語彙を問わず多様な入力音声に対して効果的な候補の提示 、訂正が可能になる。 [0010] また認識結果表示手段は、音声認識手段により認識された認識結果を複数の単語 の単語列として画面に表示する機能を有している。認識結果表示手段は、リアルタイ ムに音声認識手段の認識結果を画面に表示する機能を有して 、るのが好ま U、。 そして単語訂正手段は、画面に表示された単語列を構成する一番競合確率の高 い複数の単語を訂正する単語訂正機能を有している。この単語訂正手段は、競合単 語表示指令手段と、競合単語選択手段と、単語置き換え指令手段とから構成される 。競合単語表示指令手段は、競合候補の中カゝら一番競合確率の高い単語の競合確 率に近 、競合確率を持つ 1以上の競合単語を選び、対応する一番競合確率の高 ヽ 単語に隣接して画面上に表示させる競合単語表示機能を有して 、る。また競合単語 選択手段は、ユーザによるマニュアル操作に応じて、画面上に表示された 1以上の 競合単語から適切な訂正単語を選択する競合単語選択機能を有して ヽる。そして単 語置き換え指令手段は、競合単語選択手段により選択された訂正単語を、音声認識 手段により認識された一番競合確率の高い単語と置き換えることを音声認識手段に 指令する単語置き換え指令機能を有して!/ヽる。
[0011] 上記構成の音声認識装置では、画面に表示された単語列を構成する一番競合確 率の高 、複数の単語を訂正する競合候補として、一番競合確率の高 、単語の競合 確率に近い競合確率を持つ 1以上の競合単語を選び、対応する一番競合確率の高 V、単語に隣接して画面上に表示する。そしてユーザによるマニュアル操作に応じて、 画面上に表示された 1以上の競合単語から適切な訂正単語を選択すると、この訂正 単語が音声認識手段により認識された一番競合確率の高い単語と置き換えられる。 したがって本発明によれば、画面に表示された音声認識の結果として表示される単 語列を見ながら、訂正の可否を決定する単語の近くに表示された 1以上の競合単語 力も訂正単語を選んで、訂正を行うことができるので、短い時間で、訂正を行うことが できる。したがって音声認識処理と並行して、認識結果の訂正を行うことが可能であ る。
[0012] 画面上に表示する 1以上の競合単語の数の決定方法は特に限定されず、任意で ある。しかし音声認識の曖昧さが低いほど競合単語の数は少なくなり、音声認識の曖 昧さが高くなるほど競合単語の数は多くなる。そこで競合単語表示指令手段は、競 合単語の競合確率の分布状況に応じて、画面上に表示する競合単語の数を変える ように構成するのが好ましい。例えば、競合確率の高い単語が 1つしか無い場合には その 1つの単語を競合単語として表示すればよぐ逆に競合確率の高い単語が多数 ある場合には、その分布状況を考慮して可能な範囲で表示する競合単語の数を多く すればよい。このよう〖こすると、表示される競合単語の数で訂正をすべき可能性が一 目で分かるため、ユーザは単語列に含まれる全ての単語に同じ注意力を払って訂正 作業を行う必要がなくなる。そのため単語訂正の必要性判断及び訂正作業時間を短 くすることができる。このようにするためには、競合単語表示指令手段を、一番競合確 率の高 、単語の競合確率に近 、競合確率を持つ単語の数が少な 、場合には、画面 上に表示する競合単語の数を少なくし、一番競合確率の高 ヽ単語の競合確率に近
V、競合確率を持つ競合単語の数が多 、場合には、画面上に表示する競合単語の数 を多くするように構成すればょ 、。
さらに競合単語表示指令手段は、単語列に含まれる複数の単語の上側または下側 に、競合確率の高 ヽ順番に競合単語が並ぶように画面上に表示する機能を備えて いるのが好ましい。競合単語表示指令手段がこのような機能を備えていれば、訂正 の対象となる単語に近い競合単語から訂正に必要な単語を短い時間で簡単に見つ けることができるので、訂正作業時間を更に短くすることが可能になる。
また競合単語表示指令手段は、競合単語の中に、一番競合確率の高い単語が不 要であるために認識結果力 削除することを選択可能にするスキップ候補を含む機 能を備えているのが好ましい。この場合には、単語置き換え指令手段に、スキップ候 補が選択されると、音声認識手段による認識結果から対応する一番競合確率の高い 単語を削除することを音声認識手段に指令する機能を持たせればよい。このようにす ると音声認識でしばしば生じる湧き出し単語 (発音されていないのに、発音されたか のように認識されて表示される単語)を、競合単語の選択作業と同じ作業で削除する ことができる。したがって訂正作業が更に短くなる。なおスキップ候補にも競合確率を 付与すれば、スキップ候補の表示位置が一定になることがない。そのため競合単語 の選択と単語列からの単語の削除の選択を同じレベルで実行すればょ 、ため、ユー ザの訂正作業に要する時間を更に短縮することができる。 [0014] スキップ候補を用いる場合において、特に判定手法として、コンフュージョン 'ネット ワークを用いて前記音声入力に基づく単語グラフを音響的なクラスタリングによりリニ ァな形式に圧縮した複数の単語の区間に分け、複数の単語の区間ごとに競合確率 を求めて、一番競合確率の高い単語を決定する手法を採用する場合には、次のよう にするのが好ましい。すなわち一つの単語の一部を構成する音が二つの単語の区 間の 、ずれにも入り得る場合には、一つの単語の一部を構成する音を二つの単語の 区間の一方に含める。そして単語訂正手段により二つの単語の区間の一方に属する 単語の訂正が行われると、二つの単語の区間の他方の単語の区間では、時間的な 整合性が取れるようにスキップ候補を自動選択する。このようにすると訂正した区間の 隣接区間の湧き出し単語を自動的に削除でき、ユーザの訂正操作の回数を最小限 に抑えることができる。
[0015] 認識結果表示手段は、リアルタイムで認識結果を画面に表示する機能を有してい るのが好ましい。この場合には、単語訂正手段も、認識結果表示手段による認識結 果の画面への表示と一緒に競合単語をリアルタイムで画面上に表示する機能を有し て 、るのが好まし 、。このようにするとユーザの発声と並行して音声認識の訂正を実 施することができる。
一つ単語の訂正が行われると、訂正された単語との関係で見ると、先に決定した競 合単語が不適切なものになることもある。そこで競合単語表示指令手段に、単語訂 正手段により一部の単語が訂正されると、その訂正された単語を単語列においては 、ユーザに訂正された本来正解である単語として、再度競合単語の選び直しを行う 機能を設けるのが好ましい。この機能を設けると、まだ訂正をしていない区間に対す る競合単語を、ユーザにより訂正された単語に適合したものに変更することができる ので、後の訂正作業を更に容易にすることができる。この場合、競合単語表示指令 手段に更に次のような機能を設けるのが好ましい。すなわち単語列中の訂正された 単語とその前後にそれぞれ位置し得る二つの単語及びこの二つの単語の競合単語 との言語的な接続確率を算出し、接続確率が大きいものを画面に表示する競合単語 として選び、前に画面に表示している競合単語と入れ替えを行うか、前に画面に表示 して ヽる競合単語に新たに追加する機能を、競合単語表示指令手段に設けるのが 好ましい。このようにすると単語列中の一つの単語の訂正と連動して隣接する二つの 単語の競合単語としてより適切な単語を表示することができるようになり、訂正作業が 更に容易になる。
[0016] 音声認識手段が、単語訂正手段により訂正の対象となった単語、訂正時間の情報 及び訂正された単語に対する事後確率を蓄積データとして保存し、これらの蓄積デ ータを利用して再度の音声認識を行う機能をさらに有しているのが好ましい。このよう な機能を付加すると、もし一度目の認識で、ある区間に対して本来の正解が競合候 補として得られなカゝつた場合でも、ユーザの訂正処理カゝら得られる新たな情報を利用 した音声認識により、認識結果あるいは競合候補としてユーザ側に提示できる利点 がある。
また音声認識手段に、音声が入力されている途中において、発話者が発声する特 定の音声の入力により一時的に音声認識処理を停止して、単語訂正手段による訂正 を許容する機能を付加してもよい。このような機能を設けると、訂正作業に時間が必 要になった場合には、特定の音声を発声することにより、音声認識処理を一時的に 停止できるので、単語の訂正作業をユーザのペースに合わせて焦らずに実行するこ とができる。この場合、音声認識手段には、例えば、入力される音声が一定時間以上 連続して続く連続音であることを判定する連続音判定手段を設ける。そして連続音判 定手段が連続音の入力を判定すると、音声認識処理を一時停止し、連続音判定手 段が連続音を判定した後に連続音以外の音が入力されたことを判定すると、一時停 止前の状態力 音声認識処理を続行する機能を音声認識手段に付加すればよい。 このようにすると通常の会話にぉ 、て、言葉に詰まったときによく発音される言 、淀み (言葉が詰まった時点で発音していた音を延ばして発音すること)を利用して、スムー ズに音声認識を一時停止することが可能になる。
[0017] 音声認識手段は、単語訂正手段により訂正の対象となった単語と、入力された音 声における単語の位置情報または時間情報を保存し、再度の音声認識において、 保存した位置情報または時間情報における単語の言語確率を動的に強化すること により,その単語に関連する単語を認識しやすくする機能を有しているのが好ましい また音声認識手段には,音声が入力されると,認識処理を行うと同時に,認識処理 の認識結果を教師信号としたオンラインでの音響的適応処理を行う音響的適応処理 手段を設けるのが好ましい。このような音響的適応処理手段を設けると、現在使用中 のユーザの音声や録音環境等に即座に適応し、音声認識自体の基本的な性能を向 上させることができる。
そしてこの音響的適応処理手段としては,単語訂正手段により,認識誤りのほとん どない、より正確な教師信号をリアルタイムに生成することで,高精度な音響的適応 機能を有して 、るものを用いるのが好ま 、。このような音響的適応処理手段を用い ると、従来のオンライン適応で問題となっていた、教師信号中の認識誤りによる適応 性能の劣化を最小限に抑えることができる。
[0018] 本発明の音声認識装置で実行される本発明の音声認識方法では、音声認識ステ ップと、認識結果表示ステップと、単語訂正ステップとを実行する。音声認識ステップ では、予め定めた判定手法に従って、入力された音声に含まれる複数の単語を予め 辞書手段に記憶されている複数の単語とそれぞれ比較し、競合候補の中から一番競 合確率の高い単語を認識結果とする。認識結果表示ステップでは、音声認識手段に より認識された認識結果を複数の単語の単語列として画面に表示する。そして単語 訂正ステップでは、画面に表示された単語列を構成する一番競合確率の高!ヽ複数 の単語を訂正する。そして単語訂正ステップでは、競合候補の中から一番競合確率 の高 、単語の競合確率に近 、競合確率を持つ競合単語を選び、対応する一番競合 確率の高 、単語に隣接して画面上に表示させる競合単語表示ステップと、ユーザに よるマニュアル操作に応じて、画面上に表示された競合単語から適切な訂正単語を 選択する競合単語選択ステップと、競合単語選択ステップで選択された訂正単語を 、先に音声認識ステップにより認識された一番競合確率の高 ヽ単語と置き換えて画 面に表示する単語置き換えステップとを実行する。
[0019] コンピュータを用いて、音声を認識し、画面上に認識結果を文字で表示する機能を 前記コンピュータに実行させるための本発明のプログラムは、入力された音声に含ま れる複数の単語を予め辞書手段に記憶されている複数の単語とそれぞれ比較し、競 合候補の中から一番競合確率の高 、単語を認識結果とする音声認識機能と、前記 音声認識機能により認識された認識結果を複数の単語の単語列として画面に表示 する認識結果表示機能と、前記画面に表示された単語列を構成する前記一番競合 確率の高い複数の単語を訂正する単語訂正機能とを前記コンピュータに実行させ、 前記単語訂正機能では、前記競合候補の中から前記一番競合確率の高!、単語の 競合確率に近い競合確率を持つ 1以上の競合単語を選び、対応する前記一番競合 確率の高 、単語に隣接して前記画面上に表示させる競合単語表示機能と、ユーザ によるマニュアル操作に応じて、前記画面上に表示された前記 1以上の競合単語か ら適切な訂正単語を選択する競合単語選択機能と、前記競合単語選択ステップで 選択された前記訂正単語を、先に前記音声認識ステップにより認識された前記一番 競合確率の高い単語と置き換えて前記画面に表示する単語置き換え機能とを前記 コンピュータに実行させるように構成されて 、る。
発明の効果
[0020] 本発明によれば、画面に表示された音声認識の結果として表示される単語列を見 ながら、訂正の可否を決定する単語の近くに表示された 1以上の競合単語から訂正 単語を選ぶことにより、訂正を行うことができるので、短い時間で、訂正を行うことがで きる。したがって本発明によれば、音声認識処理と並行して、認識結果の訂正を行う ことができる。
図面の簡単な説明
[0021] [図 1]本発明の音声認識方法及びプログラムを実行する本発明の音声認識装置の実 施の形態の一例をコンピュータを用いて実現する場合にコンピュータ内に実現される 機能実現手段を概略的に示したブロック図である。
[図 2]実施の形態における競合候補の表示状態を示す図である。
[図 3]音声認識で一般的に用いられる中間結果である単語グラフの一例を示す図で ある。
[図 4] (A)は、単語グラフを音響的なクラスタリングをする場合の説明に用いる図であ り、(B)はクラスタリングによりリニアな形式に圧縮した状態を概念的に示す図である。
[図 5]本発明の音声認識方法をコンピュータで実現する場合にコンピュータにインスト ールするプログラムの一例の基本アルゴリズムを示すフローチャートである。 [図 6]図 5のステップ ST2の詳細をステップ ST1と一緒に示したフローチャートである
[図 7]スキップ候補を導入した場合のステップ ST2の一部の詳細を示すフローチヤ一 トである。
[図 8]ステップ ST5の詳細の一例を示すフローチャートである。
[図 9]ステップ ST5を構成する場合の別の手法のアルゴリズムを示すフローチャートで ある
[図 10]スキップ候補を入れる場合のステップ ST7とステップ ST8の詳細の一例を示す フローチャートである。
[図 11]一つの単語の一部を構成する音が二つの単語の区間のいずれにも入り得る 場合を考慮したときの、ステップ ST8の動作を示すフローチャートである。
[図 12]スキップ候補を自動的に選択する場合の他の例のプログラムのアルゴリズムを 示すフローチャートである。
[図 13]発音中休止機能を実現するためのプログラムのアルゴリズムを示すフローチヤ ートである。
[図 14]新しい音声認識手法を実施するためのプログラムのアルゴリズムを示すフロー チャートである。
[図 15]訂正単語の N— gram確率の動的強化を用いたデコーディングを行う場合の プログラムのアルゴリズムを示すフローチャートである。
圆 16]音声認識手段に音響的適応処理手段を設ける場合のアルゴリズムを示すフロ 一チャートである。
圆 17]音響的適応処理手段を図 1の実施の形態に適用する場合のアルゴリズムを示 すフローチャートである。
[図 18]インターフェースのシステム構成要素(プロセス)と、全体の処理の流れを示す 図である。
[図 19] (A)及び (B)は発話中休止機能を利用しない場合の表示画面の例を示す図 である。
[図 20] (A)乃至 (D)は発話中休止機能を利用した場合の表示画面をそれぞれ示す 図である。
圆 21]Nの値ごとの認識率を示す図である。
圆 22]本発明の実施に利用可能な携帯端末装置を示す図である。
符号の説明
1 音声認識装置
3 音声入力手段
5 音声認識手段
7 認識結果表示手段
9 単語訂正手段
11 音声認識実行手段
13 連続音判定手段
12 データ記憶手段
15 競合単語表示指令手段
17 競合単語選択手段
19 単語置き換え指令手段
発明を実施するための最良の形態
[0023] 図面を参照して、本発明の音声認識装置及び方法並びにプログラムの実施の形態 の一例を詳細に説明する。図 1は、本発明の音声認識方法及びプログラムを実行す る本発明の音声認識装置の実施の形態の一例をコンピュータを用いて実現する場 合にコンピュータ内に実現される機能実現手段を概略的に示したブロック図である。
[0024] 本実施の形態の音声認識装置 1は、音声を入力するための音声入力手段 3と、音 声認識手段 5と、認識結果表示手段 7と、単語訂正手段 9とを備えている。音声入力 手段 3は、例えば、マイクロフォンやマイクロフォン力 のアナログ信号を信号処理可 能なデジタル信号に変換する信号変換器等を含んで構成される。
音声認識手段 5は、音声認識実行手段 11と連続音判定手段 13とから構成されて いる。特に音声認識手段 5の音声認識実行手段 11は、予め定めた判定手法に従つ て、音声入力手段 3から入力された音声に含まれる複数の単語を、データ記憶手段 12内に設けた辞書手段(図示せず)に予め記憶されている複数の単語とそれぞれ比 較し、競合候補の中から一番競合確率の高!ヽ単語を認識結果とする音声認識機能 を有して!/、る (本発明の方法の音声認識ステップ:本発明のプログラムの音声認識機 能の実行)。ここで「予め定めた判定手法」としては、公知の各種の判定手法を用いる ことができる。本実施の形態では、コンフュージョン 'ネットワークを用いて音声入力に 基づく単語グラフを音響的なクラスタリングによりリニアな形式に圧縮した複数の単語 の区間に分け、複数の単語の区間ごとに後述する競合確率を求めて、一番競合確 率の高い単語を決定する判定手法をこの予め定めた判定手法に採用している。 音声訂正を実現するためには、図 2に示すような効果的な競合候補の画面上への 提示が不可欠である。単純には、この競合候補は、音声認識実行手段 11の内部状 態から、最も尤もらしい(可能性の高い)単語列だけでなぐそれ以外の複数の候補を 取り出して生成すればよい。しかし、通常そうした内部状態を表す中間的な表現形式 (「中間結果」と呼ぶ)は、特に大語彙を対象とした連続音声認識の場合、非常に大 規模となっている。いかに大規模かを示すために、音声認識で一般的に用いられる 中間結果である「単語グラフ」の一例を図 3に示す。単語グラフとは、音声認識で可能 性を検討した複数の候補を、リンクを単語とするグラフ構造で表現したものである。図 3は比較的短い音声に対して生成された実際の単語グラフであるが、構造が複雑で 且つ候補数も膨大であることがわかる。また、単語グラフのような従来の中間結果で は、候補間の競合関係が明示的に表現できていないため、音声訂正のような効果的 な候補提示は不可能である。そこで本実施の形態では、このような問題を解決する新 LV、中間結果として、音声認識実行手段 11の内部状態をシンプルかつ高精度なネ ットワーク構造へ変換したコンフュージョン 'ネットワーク(confusion network) [L. Mangu, E. Brill及び A. Stole ke着 mamg consensus in Speech Recog nition: Word Error Minimization and Other Applications of Confusi on Network Computer Speech and Language, Vol. 14, No. 4, pp. 37 3-400, 2000.;) ]を導入する。このコンフュージョン 'ネットワークは、元々、音声認 識率の向上のためにデコーディングアルゴリズムにおいて使用された途中結果であ る。そのため、当業者には、このコンフュージョン 'ネットワークを本実施の形態のよう な誤り訂正目的に応用しょうという発想は従来な力つた。 [0026] コンフュージョン 'ネットワークは、図 4 (A)に示す単語グラフを音響的なクラスタリン グにより図 4 (B)に示すようなリニアな形式に圧縮することで求めることができる。図 4 ( A)において、 "sil" (silence)は発話開始、終了時の無音を表し、アルファベット 1文 字はグラフのリンク上の単語名を表している。また、図 4 (B)のネットワーク上の" "は 後に説明するスキップ候補である。音響的クラスタリングは以下の 2つのステップによ り行われる。なおこのステップは、 L. Mangu, E. Brill及び A. Stolcke著の" Findi ng Consensus in ¾peecn Recognition: Word Error Minimization and
Other Applications of Confusion Network" Computer Speech and Language, Vol. 14, No. 4, pp. 373—400, 2000.; Hこ紹介されて ヽる。
[0027] 単語内クラスタリング 'ステップ:単語名が同一で、時間的に重なりのあるリンクをクラ スタリングする。時間的類似度をコスト関数として用いる。
単語間クラスタリング ·ステップ:単語名の違うリンクのクラスタリングを行う。コスト関 数として単語間の音響的類似度を用いる。
コンフュージョン 'ネットワークの各リンクについては、クラスタリングした各クラス(単 語の区間)ごとに事後確率が算出される。そして算出されたそれらの値は、各クラスで の存在確率、あるいはそのクラス内の他候補との競合確率を表わす。各クラスのリン クは、存在確率の大きさでソートされ、認識結果として可能性の高いリンクほど上位に 配置される。最終的に、各クラス力 事後確率が最大となるリンクを選択すると、図 2 の最上段のような最終的な認識結果 (最尤の候補)となる。また、各クラスで事後確率 が高いリンクを取り出すと、図 2の競合候補が得られる。
[0028] ただしコンフュージョン'ネットワークでは、クラス中の各候補は必ずしも時間的に同 一区間の認識結果とは限らない。例えば、時間的に 2つのクラスをまたがった候補は 、どちらか一方のクラスへ割り当てられる。本実施の形態にける音声訂正では、後に 説明するように、そのような候補をユーザが選択すると、発声区間との時間的な整合 性が取れるように、近隣でユーザが未選択なクラスの候補も自動的に選択し、訂正操 作の回数を最小限にする
[0029] 図 1の認識結果表示手段 7は、音声認識手段 5により認識された認識結果を複数の 単語の単語列として図示しな ヽ画面に表示する機能を有して ヽる(音声認識結果表 示ステップ:音声認識結果表示機能の実行)。図 2は、図示しない画面に表示する本 実施の形態の音声認識結果の一例とその訂正の一例を示す図である。本実施の形 態の認識結果表示手段 7は、リアルタイムで音声認識手段 5の認識結果を画面に表 示する機能を有している。
この場合には、単語訂正手段 9も、認識結果表示手段 7による認識結果の画面へ の表示と一緒に競合単語をリアルタイムで画面上に表示する機能を有しているのが 好ま 、。このようにするとユーザの発声と並行して音声認識の訂正を実施すること ができる。
単語訂正手段 9は、画面に表示された単語列を構成する一番競合確率の高い複 数の単語を訂正する単語訂正機能を有して ヽる(単語訂正ステップ:単語訂正機能 の実行)。本実施の形態で用いる単語訂正手段 9は、競合単語表示指令手段 15と、 競合単語選択手段 17と、単語置き換え指令手段 19とから構成される。競合単語表 示指令手段 15は、競合候補の中から一番競合確率の高 、単語の競合確率に近!ヽ 競合確率を持つ 1以上の競合単語を選び、対応する一番競合確率の高い単語に隣 接して画面上に表示させる競合単語表示機能を有して!/ヽる(競合単語表示ステップ の実行)。すなわち本実施の形態では、図 2に示すように、音声認識手段 5により認 識された一番競合確率の高 、単語から構成される単語列である「通常の認識結果」 の下に、多数の競合候補の中から単語列の単語 (一番競合確率の高い単語)の競 合確率に近い競合確率を持つ 1以上の競合単語を選び、これを表示する。競合単語 選択手段 17は、ユーザによるマニュアル操作に応じて、画面上に表示された 1以上 の競合単語から適切な訂正単語を選択する競合単語選択機能を有して!/、る(競合 単語選択ステップの実行)。そして単語置き換え指令手段 19は、競合単語選択手段 17により選択された訂正単語を、音声認識手段 5により認識された一番競合確率の 高い単語 (通常の認識結果として単語列を構成する単語)と置き換えることを音声認 識手段 5に指令する単語置き換え指令機能を有している (単語置き換え指令ステップ の実行)。これによつて認識結果表示手段 7が画面に表示する単語が、訂正された単 語によって置き換えられる。例えば図 2に示す例では、最初の単語「温泉」に音声認 識の誤りがある。最初の単語について表示された競合候補中、最初に表示された「 音声」が競合候補の中でもっとも競合確率が高いもので、それよりも下にいくほど競 合確率が低い単語となる。なお単語列の下の競合候補のうち、空白は後に詳しく説 明するスキップ候補であり、このスキップ候補を選択すると、単語列の単語は削除さ れる。スキップ候補を採用する場合には、単語置き換え指令手段 19に、スキップ候 補が選択されると、音声認識手段 5による認識結果から対応する一番競合確率の高 い単語を削除することを音声認識手段 5に指令する機能を持たせればよい。このよう にすると音声認識でしばしば生じる湧き出し単語 (発音されていないのに、発音され たカゝのように認識されて表示される単語)を、競合単語の選択作業と同じ作業で削除 することができる。したがって訂正作業が更に短くなる。なおスキップ候補にも競合確 率を付与すれば、スキップ候補の表示位置が一定になることがない。そのため競合 単語の選択と単語列力ゝらの単語の削除の選択を同じレベルで実行することができ、 ユーザの訂正作業に要する時間を更に短縮することができる。
[0031] 一つ単語の訂正が行われると、訂正された単語との関係で見ると、先に決定して画 面に表示した競合単語が不適切なものになることもある。そこで競合単語表示指令 手段 15に、単語訂正手段 9により一部の単語が訂正されると、その訂正された単語 を単語列においては、以後ユーザによって訂正された本来正解である単語として、 再度競合単語の選び直しを行う機能を設けるのが好ましい。この機能を設けると、ま だ訂正をして 、な 、単語に対する競合単語を訂正された語に適合した単語に変更 することができるので、後の訂正作業を更に容易にすることができる。この場合、競合 単語表示指令手段 15に更に次のような機能を設けるのが好ましい。すなわち単語列 中の訂正された単語とその前後にそれぞれ位置し得る二つの単語及びこの二つの 単語の競合単語との言語的な接続確率を算出し、接続確率が大きいものを画面に 表示する競合単語として再び選び、前に画面に表示して ヽる競合単語と入れ替えを 行うか、前に画面に表示している競合単語に新たに追加する機能を、競合単語表示 指令手段 15に設けるのが好ましい。このようにすると単語列中の一つの単語の訂正 と連動して隣接する二つの単語の競合単語としてより適切な単語を表示することがで きるようになり、訂正作業が更に容易になる。
[0032] 上記の競合候補の訂正機能は、未選択候補の自動訂正機能と呼ぶことができる。 すなわちユーザがある候補を訂正すると、その周辺の候補も最適なものに自動的に 訂正されるという機能を意味する。音声認識では、ある単語を誤ると、その単語に引 きずられる形で後続する候補として誤った単語が認識されることが頻繁に発生する( 例えば後述する、図 19中、「音声 入力」→「温泉 入浴」)。本機能を採用すると、ュ 一ザが選択した候補の前後のそれぞれの候補に対し、現在選択して!/、る候補との言 語的な接続確率を算出し、その値が最も大きい候補に自動修正することになる。例え ば、図 19において、ユーザが「温泉」を「音声」に訂正すると、「音声」との言語的接続 確率が最も高い「入力」が自動的に選択され、「入浴」が「入力」へと訂正される。これ により、ユーザの訂正操作の回数を最小限に抑えることができる。
図 5は、本発明の音声認識方法をコンピュータで実現する場合にコンピュータにィ ンストールするプログラムの一例の基本アルゴリズムを示すフローチャートである。こ の基本アルゴリズムでは、まず最初に音声を認識する (ステップ ST1)。次に音声認 識結果に基づいて競合候補を生成する (ステップ ST2)。そして画面に競合確率の 最も高 、単語で構成された一つの単語列を認識結果として表示する (ステップ ST3) 。次に、音声認識した単語列を構成する一番競合確率の高い複数の単語を訂正す る競合候補として、一番競合確率の高い単語の競合確率に近い競合確率を持つ 1 以上の競合単語を選び、競合候補を画面に表示するか否かを判定する (ステップ ST 4)。このプログラムでは、訂正を行わない無修正モードも用意してあるため、この無修 正モードではステップ ST4からステップ ST1へと戻り、通常の音声認識結果だけが画 面に表示される。画面表示を選択した場合には、 1以上の競合単語を対応する一番 競合確率の高い単語に隣接して画面上に表示する (ステップ ST5)。認識結果に誤り が存在するかの判定をユーザが行い (ステップ ST6)、訂正の必要性をユーザが判 断した場合には、ステップ ST7へと進んで、ユーザによるマニュアル操作に応じて、 画面上に表示された 1以上の競合単語から適切な訂正単語を選択する (ステップ ST 7)。その結果、この訂正単語が音声認識手段により認識された一番競合確率の高い 単語と置き換えられる (ステップ ST8)。ステップ ST6で訂正の必要性が無 、と判断さ れた場合 (競合候補を画面に出力した後所定の時間経過したときに訂正操作が入ら ないとき)は、ステップ ST1へと戻る。一つの単語の訂正が終了した後、更に訂正が あればステップ ST9からステップ ST6へと戻る。なお音声入力があれば、ステップ ST 1からステップ ST5までは、訂正が行われている間も実行されており、新たな単語列 が画面に表示され続ける。
[0034] 図 6は、本実施の形態におけるステップ ST2の詳細をステップ ST1と一緒に示した ものである。ステップ ST2では、まず単語グラフを生成する (ステップ ST21)。次に単 語グラフに対して音響的なクラスタリングを実行し、コンフュージョン'ネットワークを生 成する(ステップ ST22)。次にコンフュージョン 'ネットワークの各単語の区間の中から 競合確率が最も大きい単語をピックアップして、単語列としたものを認識結果とする( ステップ ST23)。そして更に音声入力がなければ終了する(ステップ ST24)。
[0035] 前述のスキップ候補を用いる場合において、特に判定手法として、コンフュージョン
'ネットワークを用いるのが好ましい。この場合には、音声入力に基づく単語グラフを 音響的なクラスタリングによりリニアな形式に圧縮した複数の単語の区間に分け、複 数の単語の区間ごとに競合確率を求めて、一番競合確率の高い単語を決定する。 すなわち一つの単語の一部を構成する音が二つの単語の区間のいずれにも入り得 る場合には、一つの単語の一部を構成する音を二つの単語の区間の一方に含める 。そして単語訂正手段 9により二つの単語の区間の一方に属する単語の訂正が行わ れると、二つの単語の区間の他方の単語の区間では、時間的な整合性が取れるよう にスキップ候補を自動選択する。図 7は、スキップ候補を導入した場合のステップ ST 2の一部の詳細を示している。この場合には、単語グラフを作成した後 (ステップ ST2 1)、ステップ ST221で「単語グラフに対して音響的クラスタリングを実行」し、「各区間 に対する競合単語、各競合単語に対する競合確率を算出する。そして同時に各区 間に対して『単語が存在しな 、確率』を 1 (区間における競合確率の合計)」として 算出する。その後、ステップ ST222でコンフュージョン 'ネットワークを生成し、ステツ プ ST223で「単語が存在しな 、確率」をスキップ候補の確率として設定する。
[0036] 図 8は、上記のステップ ST5の詳細の一例を示すフローチャートである。図 2に示す ように、本実施の形態では、画面上に表示する 1以上の競合単語の数 (競合候補)は 、全ての単語において同じではない。本実施の形態では、音声認識の曖昧さが低い ほど競合単語の数を少なくし、音声認識の曖昧さが高くなるほど競合単語の数を多く している。そこで競合単語表示指令手段 15は、競合単語の競合確率の分布状況に 応じて、画面上に表示する競合単語の数を変えるように構成するのが好ましい。例え ば、競合確率の高い単語が 1つしか無い場合にはその 1つの単語を競合単語として 表示すればよぐ逆に競合確率の高い単語が多数ある場合には、その分布状況を考 慮して可能な範囲で表示する競合単語の数を多くすればよい。そこで図 8に示すよう に、ステップ ST5では、まずステップ ST51で、競合候補を各単語の区間における複 数の競合単語で構成し、各競合単語には所属する区間における競合確率を付与す る。そしてステップ ST52では、各単語の区間における競合単語の数が多いか判定 する。競合単語の数が多ければ、ステップ ST53で、画面に多くの競合単語を表示し 、誤りである可能性が高い区間であることを、表示する競合単語の数を多くしてユー ザに提示する。競合単語の数が少なければ、ステップ ST54で画面には競合単語は 殆ど表示せず、正解である可能性が高い区間であることを、表示する競合単語の数 を少なくすることによりユーザに提示する。このようにすると、表示される競合単語の 数で訂正をすべき可能性が一目で分力るため、ユーザは単語列に含まれる全ての 単語に同じ注意力を払って訂正作業を行う必要がなくなる。そのため単語訂正の必 要性判断及び訂正作業時間を短くすることができる。
[0037] また競合単語表示指令手段 15を構成するステップ ST5では、単語列に含まれる複 数の単語の上側または下側に、競合確率の高!、順番に競合単語が並ぶように画面 上に表示する機能を備えているのが好ましい。競合単語表示指令手段 15がこのよう な機能を備えて ヽれば、訂正の対象となる単語に近 ヽ競合単語から訂正に必要な 単語を短い時間で簡単に見つけることができるので、訂正作業時間を更に短くするこ とが可能になる。
[0038] 図 9は、ステップ ST5を構成する場合の別の手法のアルゴリズムを示している。図 9 の例では、競合単語に競合確率を付与したのち、ステップ ST52,で競合確率がある 一定の確率よりも大き 、か否かの判定を行う。そして競合単語の競合確率が一定の 確率よりも大きいものは、ステップ ST53 こよりその区間における競合候補として画 面に表示する。また競合単語の競合確率が一定の確率より小さい場合には、ステツ プ ST54'で画面には表示しな 、。なおこの場合でもスキップ候補は表示するようにし てもよい。
[0039] そして図 10は、スキップ候補を入れる場合のステップ ST7とステップ ST8の詳細の 一例を示している。ステップ ST7は、ステップ ST71乃至 ST73によって構成され、ス テツプ ST8はステップ ST81及び ST82によって構成される。ステップ ST71では、訂 正の対象になつている単語が本来は何も存在しない区間に誤って挿入された単語で あるか判定される。もし誤って挿入されたのであれば、ステップ ST72へと進み、「スキ ップ候補」を選択する。その結果ステップ ST81で、その単語が単語列から削除され る。もし誤って挿入された単語でなければ、ステップ ST73で適切な競合単語をクリツ クすると、単語列の単語は選択された訂正単語によって置き換わる (ステップ ST82) 。また図 11は、前述の一つの単語の一部を構成する音が二つの単語の区間のいず れにも入り得る場合を考慮したときの、ステップ ST8の詳細を示している。ステップ ST 7で単語をクリックすると、ステップ ST801で、選択された単語の隣接する区間に対 する時間的オーバーラップが形成される。次にステップ ST802で、時間的にオーバ 一ラップが隣接する単語の区間の半分以上の時間である力否かが判定される。時間 的オーバーラップが半分以下であれば、ステップ ST803で選択した単語は、隣接す る区間に時間的に跨っているとして、隣接する区間に対してはスキップ候補を自動的 に選択する。そしてステップ ST804で、現区間の選択された単語が認識結果として 画面に表示され、隣接する区間にはもとの認識結果が削除された状態で画面に表示 される。時間的オーバーラップが半分より少なければ、ステップ ST804で、現区間の 選択された単語が認識結果として画面に表示される。
[0040] 図 12は、スキップ候補を自動的に選択する場合の他の例のプログラムのァルゴリズ ムを示すフローチャートである。このアルゴリズムでは、ステップ ST811で、隣接する 単語の区間の認識結果の競合確率がある一定の値以上であるか否かが判定される 。そして競合確率が一定以上で無ければ、ステップ ST812へと進んで、選択した単 語の、隣接する単語の区間の各競合単語に対する言語的接続確率 (N—gmm)を 計算する。次にステップ ST813で、最も言語的接続確率が大きい単語を、隣接する 区間の認識結果として自動的に選択する。
[0041] 上記実施の形態では、図 2に示した音声認識結果の表示と競合候補の表示を同時 に行っているので、ユーザの発声が入力され、図 2上側に示すような結果が即座に 提示される (音声入力開始と共に左から右へ順次表示されていく)ので、訂正作業は 、リアルタイムで実施できる。訂正作業では、従来の音声認識と異なり、最上段の通 常の認識結果 (単語列)に加えて、その下へ「競合候補」のリストを常に表示している ので、競合候補力もの選択作業で訂正を行える。図 2に示すように、通常の認識結果 が各単語の区間ごとに区切られて、その単語に対する競合候補がその下に整列して 表示される。前述のように、競合候補の個数はその区間の曖昧さを反映しており、音 声認識手段 5にとつて曖昧で自信がない箇所ほど、多数の候補が表示される。その ため、ユーザは候補が多いところに誤認識がありそうだと思って、注意深く見ることが できる。逆に、音声認識手段 5が正しいと自信のある区間は候補が少ないため、ユー ザに余計な混乱を与えることがない。このように認識結果を提示することで、ユーザは 競合候補の中から正解を「選択」する操作だけで、容易に認識誤りを訂正できる。
[0042] また本実施の形態のように、前述のスキップ候補を使用すると、最上段の認識結果 に湧き出し単語 (本来あるべきでない区間に余分な単語が挿入される誤り)が存在し ても、ユーザはスキップ候補を選択するだけで容易に削除できる。つまり単語の置き 換えと削除が、「選択」という一つの操作でシームレスに実行できる。また、各区間の 競合候補は、上から可能性 (存在確率)の高い順に並んでいる。つまり、上の方ほど 音声認識手段があり得そうな候補だと判断しているので、通常はユーザが上力 下 へ候補を見ていくと、早く正解にたどり着けるようになつている。さらに、本実施の形態 では、発話中の認識結果として可能性のある単語候補が網羅的に列挙され、各区間 にスキップ候補も持っているため、遠藤、寺田著"音声入力における対話的候補選択 手法"(インタラクション 2003論文集、 pp. 195- 196, 2003. )で提案されているよ うな認識結果の単語境界の変更も不要になる利点がある。
[0043] 従来の一部の音声認識装置では、発話が終了するまで認識結果が表示されな 、こ とがあった。仮に結果が表示されたとしても、競合候補のような他の可能性が示され ることはなく、発話が終了して力 結果を吟味するまで、誤りの訂正に移ることはでき なかった。そのため、音声入力はキーボード入力と比べて、誤り訂正作業に多くの時 間が力かる欠点があることが指摘されていた。その要因として、訂正自体の時間以外 に、
1)ユーザが誤り箇所を発見するための時間、
2)誤り箇所を指摘する (カーソル移動する)ための時間、
が余計に力かる点が挙げられる。
[0044] これに対して本実施の形態の音声認識装置を用いると、発話中に認識の中間結果 を競合候補付きでリアルタイムにフィードバックし続け、さらにユーザの選択も可能に なるため、発声の最中に誤りを即時に訂正できる。これにより、上述の 2点の作業時 間が大幅に短縮される。また実際の訂正に力かる時間も、既に表示されている候補 を「選択」するだけであるため、非常に短くなるという利点がある。
[0045] 図 1に示すように、上記の実施の形態では、音声認識手段 5は、音声が入力されて V、る途中にぉ 、て、発話者が発声する特定の音声の入力により一時的に音声認識 処理を停止して、単語訂正手段 9による訂正を許容する機能を備えている。そこで音 声認識手段 5には、入力された音声が一定時間以上連続して続く連続音であること を判定する連続音判定手段 13を設けている。この連続音判定手段 13が連続音の入 力を判定すると、音声認識実行手段 11は、音声認識処理を一時停止し、連続音判 定手段 13が連続音を判定した後に連続音以外の音が入力されたことを判定すると、 一時停止前の状態力 音声認識処理を続行する機能を備えて 、る。このような機能 を付加すると、通常の会話において、言葉に詰まったときによく発音される言い淀み( 言葉が詰まった時点で発音していた音を延ばして発音すること)を利用して、スムー ズに音声認識を一時停止することが可能になる。またこのような機能を設けると、訂正 作業に時間が必要になった場合には、特定の音声を発音することにより、音声認識 処理を一時的に停止できるので、単語の訂正作業をユーザのペースに合わせて焦ら ずに実行することができる。
[0046] 図 13は、この機能を実現するためのプログラムのアルゴリズムを示す。まずステップ ST11で音声認識を開始する。そしてステップ ST12で、ユーザから一時休止を表す 特殊なサイン (有声休止のような特定の音声の入力:例えば「え 」と連続する連 続音の入力)があったか判定される。この判定が Yesであれば、ステップ ST13へと進 み、音声認識処理を一時停止する。そして現段階の処理内容を保存する。そしてス テツプ ST2'で現段階までの競合候補を生成し、ステップ ST5'で現段階までの競合 候補を画面に表示する。なおこの例では図 5のステップ ST4に相当するステップは省 略している。またステップ ST12の判定で、特殊なサインがないことが判定されると、ス テツプ ST13'で通常通りの音声認識が行われる。なお直前時間までの処理内容が 保存されていれば、その続きから認識を再開する。その後ステップ ST2及び ST5へと 進んで競合候補を画面に表示する。競合候補の画面への表示が行われたら、図 5の ステップ ST6へと進む。なおこの場合ステップ ST6では、認識結果に誤りが存在しな
V、ことの判定を、特殊なサイン (特定の音声の入力:例えば「え 」と連続する連 続音の入力)の停止により判断する。
[0047] 発話中休止機能の具体的実現方法について説明する。発話中に有声休止 (言い 淀み)が検出され、その直後に一定の無音区間が検出されたら、音声認識手段 5の 動作を一時停止し、現時点の認識処理過程 (それまでの仮説情報、探索空間での現 在の位置情報等)を退避する。このとき、有声休止が発声され続けている区間は音声 認識の対象とならず、スキップされる。再び発話の開始が検出されると (音声のパワー に基づいて検出)、退避した認識処理過程から音声認識処理を再開し、発話終端が 検出されるまで認識処理を続行する。有声休止の検出には、後藤,伊藤及び速水著 の"自然発話中の有声休止箇所のリアルタイム検出システム"(信学論, Vol. J83- D-II, No. 11, pp. 2330- 2340, 2000.;)のリアルタイム有声休止検出手法を 採用することができる。この手法は、有声休止 (母音の引き延ばし)が持つ 2つの音響 的特徴 (基本周波数の変動が小さ 、、スペクトル包絡の変形が小さ!、)をボトムアップ な信号処理によってリアルタイムに検出する。そのため、任意の母音の引き延ばしを 言語非依存に検出できると 、う特長を持って 、る。
[0048] 上記の発話中休止機能を設けると、発話中にユーザが意図した時点で、認識処理 を一時停止させることができる。そして次の発話が始まると、あた力も一時停止前の発 話が続いていたかのように動作させることができる。本実施の形態では、ユーザの一 時停止の意図を伝えるために、音声中の非言語情報の 1つである有声休止 [言い淀 み (語中の任意の母音の引き延ばし) ]を、発話中休止機能のトリガーとして採用した 。この有声休止は、人間同士の対話においても、相手に少し待って欲しいときや、喋 つている最中に考え事をするときなどに、しばしば行われる。そのため、ユーザは自 然に一時停止をかけて、正しい候補を選択したり、続きの発話を考えたりすることが できる。
[0049] また本実施の形態の音声認識装置及び方法では、認識誤りのほとんどを訂正する ことが可能になる。し力しながらコンフュージョン 'ネットワーク中に含まれな力つた候 補については選択による訂正処理ができない問題が発生する。この問題を改善する ためには、コンフュージョン 'ネットワーク生成のための音声認識手段自体をより高精 度化する必要がある。そこで本実施の形態では、ユーザとのインタラクション (ここで は訂正処理)を利用したデコーディングによる新 U、音声認識手法を採用することが 好ましい。図 14は、この手法を実施するためのプログラムのアルゴリズムを示すフロ 一チャートである。この手法では、音声認識結果の訂正において、ユーザによって訂 正処理が実行されると、訂正後の単語と時間情報、その単語に対するスコア (事後確 率)などを保存し (ステップ ST106)、それらの情報を利用して再度デコーディング( 同じ音声データに対して音声認識処理)を行う(ステップ ST107)。これにより、ユー ザが誤り訂正というインタラクションを介して、音声認識器の内部処理を能動的に操 作するという、これまでにない機構が実現される。
[0050] そのための一つの手法として、訂正単語の N— gram確率の動的強化を用いたデコ ーデイングを行うことが考えられる。図 15は、この手法を実施するためのプログラムの アルゴリズムを示すフローチャートである。このプログラムでは、訂正処理の際にユー ザが選択した単語 (本来の正解)を w 、入力音声に対する w の開始、終了時
select select
間をそれぞれ Ts、 Teとする。一方、訂正処理後の再デコーディング (再度の音声認 識処理)にお 、て、ある時刻での単語候補を w、その直前単語を w 、 w の開始
prev prev 時間を ts、終了時間を teとする。通常、 bigramを用いたビーム探索の場合、現在の 候補に対する言語スコア(対数尤度) S (w
lm I w )は以下のように与えられる。
prev
[0051] S (w I w ) =log P (w
prev I w )
lm prev
このとき、訂正処理の際にユーザが選択した単語の情報をもとにした条件、 W =
prev
W 、また、 W の区間時間が W の区間時間とオーバーラップがある(すなわち select prev select
Tsく tsく Teもしくは Tsく teく Te)、を満たせば、言語スコアを以下のように変更する S (w I w ) = C log P (w I w )
lm prev prev
ここで C (0< C< 1)は bigram値に対する重み係数であり、本願明細書では、これ を「インタラクション係数」と呼ぶ。このように、音声訂正後の再デコーディングにおい て、ユーザによって訂正された単語の N— gram確率値を動的に強化することで、そ の単語に言語制約的に関連する単語を、後続する単語候補として探索ビーム内に 残りやすい状態にすることができる。このように音声訂正後の再デコーディングにお Vヽて、ユーザによって訂正された単語の N-gram確率値を動的に強化する (一定の係 数を乗ずる)ことで、その単語に言語制約的に関連する単語を、後続する単語候補と して探索ビーム内に残りやすくし、もとのデコーデイングにて訂正不能だつた単語を 訂正可能にすることができる。
次に、本発明の音声認識装置及び方法による訂正を用いた高精度なオンライン適 応化機能について説明する。現状の一般的な音声認識装置においては、不特定話 者'タスクに対して頑健かつ高精度に認識することは困難であり、話者や環境に対し て、その認識装置で用いて 、るモデルを適応する技術が必要不可欠となって 、る。 特に、実環境においては、話者や利用環境が頻繁に変化することがあるため、オンラ インでの逐次的に適応可能な音声認識装置が望まれる。そこで一般的なオンライン 適応の処理過程を以下に示す。
1 入力音声 (発話)に対し、既存のモデルを用いて認識を行う。
2 認識結果をもとに適応に用いる教師信号 (発話内容テキスト)を生成する。
3 生成した教師信号をもとに、 MLLRや MAPなどを用いて適応を行い、音響モ デルを更新する。
4 更新した音響モデルを用いて次の発話を認識する。
このようなオンライン適応では、教師信号は既存のモデルを用いた認識により自動 的に生成されるため、認識誤りによる「不完全」な発話内容テキストとなり、その結果、 適応の性能を大きく劣化させてしまう。これに対し、本実施の形態の音声認識装置で は、音声認識の訂正の枠組みにオンライン適応を組み込むことにより、話者、環境に 頑健な認識を実現することができる。本実施の形態の音声認識結果の訂正では、効 率的かつリアルタイムに認識誤りを訂正することが可能であり、ユーザが訂正した認 識結果を教師信号として用いることにより、「完全」な発話内容テキストで高精度な適 応処理が可能となる。本実施の形態の音声認識装置では、従来では各々の処理が オフラインで動作することが多力つた、「認識」、「訂正」、「オンライン適応」の一連の 処理をリアルタイムで実行することが可能である。
[0053] 図 16は、上記の考えに従って、音声認識手段 5に音響的適応処理手段を設ける場 合のアルゴリズムを示すフローチャートである。また図 17は、この音響的適応処理手 段を図 1の実施の形態に適用する場合のアルゴリズムを示すフローチャートである。 音声が入力されると,音響的適応処理手段は、認識処理を行うと同時に,認識処理 の認識結果を教師信号としたオンラインでの音響的適応処理を行う (ステップ ST01 〜ST03)。図 17に示すように、この音響的適応処理手段は,単語訂正手段 9により 訂正処理が実行されたとき (ステップ ST2、 ST5〜ST8)、認識誤りのない正確な教 師信号をリアルタイムに生成することで,高精度な音響的適応機能を発揮する。
[0054] 次に本実施の形態を具体的に実現したインターフェースの試験装置と試験の結果 について説明する。図 18に、インターフェースのシステム構成要素(プロセス)と、全 体の処理の流れを示す。図 18においては、プロセスは図のブロックの中の字で示さ れており、ネットワーク (LAN)上の複数の計算機で分散して実行することが可能であ る。プロセス間の通信には、音声言語情報をネットワーク上で効率よく共有することを 可能にするネットワークプロトコル RVCP (Remote Voice Control Protocol) [ 後藤,伊藤,秋葉及び速水著の"音声補完:音声入力インターフェースへの新しいモ ダリティの導入,,(コンピュータソフトウェア, Vol. 19, No. 4, pp. 10- 21, 2002. ) ]を用いた。
[0055] 処理の流れについて説明する。まず、マイクロフォン等力 音声入力部に入力され た音響信号は、ネットワーク上にパケットとして送信される。特徴量抽出部(図 1の音 声認識手段 5に含まれる)、有声休止検出部(図 1の音声認識手段 5の連続音判定 手段 13に相当する)、発話区間検出部(図 1の音声認識手段 5に含まれる)がそのパ ケットを同時に受信し、音響特徴量 (MFCC)や有声休止、発話の始終端をそれぞ れ求める。これらの情報は、パケットとして音声認識部(図 1の音声認識実行手段 11 に相当する)に送信され、認識処理が実行される。このとき、有声休止は、発話中休 止機能を呼び出すトリガーとして利用される。音声認識部では、中間結果としてコン フュージョン 'ネットワークが生成され、その情報はパケットとしてインターフェース管理 部(図 1の単語訂正手段 9に含まれる)に送信される。インターフェース管理部では候 補を表示し、マウス〖こよるクリックや、パネル上をペンや指で触れる操作によってその 選択を可能にする。
[0056] 試験装置では、音響モデルとして、新聞記事読み上げコーパス JNASから学習した 音節モデル [緒方,有木著の"日本語話し言葉音声認識のための音節に基づく音響 モデリング,,(信学論, Vol. J86-D-II, No. 11, pp. 1523— 1530, 2003. ) ] ( モデル数 244、 1状態あたりの混合数 16)を用い、言語モデルには、 CSRCソフトゥ エア 2000年度版 [河原他著の"連続音声認識コンソーシアム 2000年度版ソフトゥェ ァの概要と評価"(情処研報, 2001— SLP— 38— 6, 2001.;) ]の中から、新聞記事 テキストより学習された 20000語の bigramをそれぞれ用いた。また、試験装置で用 いた音声認識実行手段としては、 back— off制約 N— best探索アルゴリズム [緒方, 有木著の "大語彙連続音声認識における最ゆう単語 back - of f接続を用 ヽた効率的 な N— best探索法,,(信学論, Vol. 84-D-II, No. 12, pp. 2489— 2500, 200 1.;) ]により、リアルタイムにコンフュージョン 'ネットワークを生成できるように拡張され ているものを用いた。
[0057] 図 19 (A)及び (B)に発話中休止機能を利用しない場合の表示画面を示しており、 図 20 (A)乃至 (D)に発話中休止機能を利用した場合の表示画面をそれぞれ示す。 この試験装置では、図 2の表示に相当する表示部分(「候補表示部」と呼ぶ)の上に、 さらに一行追加されている。これは、候補を選択して訂正した後の最終的な音声入力 結果を表示している。候補表示部では、現在選択されている単語の背景が着色され る。何も選択していない状態では、候補表示部の最上段の最尤単語列が選択されて いる。ユーザが他の候補をクリックして選択すると、その候補の背景が着色されるだけ でなぐ画面最上部の最終的な音声入力結果も書き換えられる(図 19及び図 20では 、選択操作で訂正した箇所だけ、文字の色を変えてわ力りやすく表示している)。
[0058] 次に、音声認識結果の訂正の基本性能を評価した結果と、実装したインターフエ一 スの運用結果について説明する。
[音声訂正の基本性能]
音声訂正が実用的に使えるかどうかを評価するには、認識誤りを訂正することがど の程度可能か、すなわち、表示される競合候補の中に本来の正解がどの程度含まれ ているか、を調査することが重要となる。そこで、男性 25人が発話した計 100発話を 対象に、候補を上位 N個まで提示したときの訂正後の認識率 (最終的な音声入力成 功率)を、誤り訂正能力として評価した。つまりここでの認識率は、例えば N= 5の場 合、上位 5個以内に正解が含まれる割合で表される。通常の認識性能 (N= lのとき の認識率)は 86. 70%であった。
[0059] 図 21に、 Nの値ごとの認識率を示す。実験結果より、提示する候補数を増やすと認 識率が向上し、 11以上で飽和することがわ力つた。このときの認識率は 99. 36%で あり、これは、通常の認識結果の全ての誤り(209個)のうち、約 95%の誤り(199個) を訂正可能であることを示している。訂正できな力つた 10個を調査したところ、 4個は 用いた音声認識の単語辞書中に登録されていない、いわゆる未知語であった。また 、 N= 5程度でもほとんどの誤りを訂正できることもわ力つた。
[0060] 従来の音声訂正では、提示する候補数が多すぎるとユーザ側の混乱を招き、逆に 少なすぎると誤りを訂正できなくなる力 コンフュージョン 'ネットワークを用いることに より、提示する競合候補数を抑えつつ、ほとんどの誤りを訂正することが可能であるこ とがわかった。ただし、実験でも示されたように、音声認識器の知らない未知語に関し ては、現時点では、音声訂正を用いても訂正できない。この解決は今後の課題であり 、ユーザとのさらなるインタラクションを介して未知語を解消する枠組みが必要になる と考えている。
[0061] [運用結果]
実際に、 4人のユーザに新聞記事の文章を読み上げてもらい、試験装置 (インタフ エース)により訂正処理を行ってもらった。どのユーザも、提示される競合候補に混乱 されることなく、適切に訂正処理が行えることを確認した。言い淀みによる発話中休止 機能も適切に使用され、特に長い文章を入力する場合は、本機能を使用すれば入 力の際の労力が軽減されたとの感想を得た。また、使用方法も選択のみの操作で単 純であり、 GUIも直感的でわ力りやすいと評価された。実際に、他人が使用している 様子を見たユーザが、訓練せずに即座に使用できることがわ力つた。
上記実施の形態では、競合単語の選択をマウスを用いて行っている。しかし図 22 に示すように PDA等の携帯端末装置 MBで本発明を実施する場合には、タツチペン TPを入力手段として競合単語の選択を行えばょ ヽ。

Claims

請求の範囲
[1] 音声を入力するための音声入力手段と、
予め定めた判定手法に従って、前記音声入力手段から入力された音声に含まれる 複数の単語を予め辞書手段に記憶されている複数の単語とそれぞれ比較し、競合 候補の中から一番競合確率の高 、単語を認識結果とする音声認識手段と、 前記音声認識手段により認識された認識結果を複数の単語の単語列として画面に 表示する認識結果表示手段と、
前記画面に表示された単語列を構成する前記一番競合確率の高い複数の単語を 訂正する単語訂正手段とを備えた音声認識装置であって、
前記単語訂正手段は、
前記競合候補の中から前記一番競合確率の高!ヽ単語の競合確率に近!ヽ競合確率 を持つ 1以上の競合単語を選び、対応する前記一番競合確率の高い単語に隣接し て前記画面上に表示させる競合単語表示指令手段と、
ユーザによるマニュアル操作に応じて、前記画面上に表示された前記 1以上の競 合単語から適切な訂正単語を選択する競合単語選択手段と、
前記競合単語選択手段により選択された前記訂正単語を、前記音声認識手段によ り認識された前記一番競合確率の高い単語と置き換えることを前記音声認識手段に 指令する単語置き換え指令手段とを備えていることを特徴とする音声認識装置。
[2] 前記競合単語表示指令手段は、前記競合単語の前記競合確率の分布状況に応じ て、前記画面上に表示する前記競合単語の数を変えることを特徴とする請求項 1に 記載の音声認識装置。
[3] 前記競合単語表示指令手段は、前記一番競合確率の高!ヽ単語の競合確率に近 い競合確率を持つ前記競合単語の数が少ない場合には、前記画面上に表示する前 記競合単語の数を少なくし、前記一番競合確率の高 、単語の競合確率に近 、競合 確率を持つ前記競合単語の数が多い場合には、前記画面上に表示する前記競合 単語の数を多くする請求項 2に記載の音声認識装置。
[4] 前記競合単語表示指令手段は、前記単語列に含まれる前記複数の単語の上側ま たは下側に、競合確率の高い順番に前記競合単語が並ぶように前記画面上に表示 させる機能をさらに備えて 、る請求項 1に記載の音声認識装置。
[5] 前記予め定めた判定手法は、コンフュージョン 'ネットワークを用いて前記音声入力 に基づく単語グラフを音響的なクラスタリングによりリニアな形式に圧縮した複数の単 語の区間に分け、前記複数の単語の区間ごとに前記競合確率を求めて、一番競合 確率の高い単語を決定する手法である請求項 1または 2に記載の音声認識装置。
[6] 前記競合単語表示指令手段は、前記競合単語の中に、前記一番競合確率の高 ヽ 単語が不要であるために前記認識結果力 削除することを選択可能にするスキップ 候補を含む機能を備えており、
前記単語置き換え指令手段は、前記スキップ候補が選択されると、前記音声認識 手段による前記認識結果から対応する前記一番競合確率の高い単語を削除するこ とを前記音声認識手段に指令する機能を備えている請求項 1または 2に記載の音声 認識装置。
[7] 前記競合単語表示指令手段は、前記競合単語の中に、前記一番競合確率の高 ヽ 単語が不要であるために前記認識結果力 削除することを選択可能にするスキップ 候補を含む機能を備えており、
前記単語置き換え指令手段は、前記スキップ候補が選択されると、前記音声認識 手段による前記認識結果から対応する前記一番競合確率の高い単語を削除するこ とを前記音声認識手段に指令する機能を備えており、
前記スキップ候補にも競合確率が付与されることを特徴とする請求項 2に記載の音 声認識装置。
[8] 前記予め定めた判定手法は、
コンフュージョン'ネットワークを用 、て前記音声入力に基づく単語グラフを音響的 なクラスタリングによりリニアな形式に圧縮した複数の単語の区間に分け、前記複数 の単語の区間ごとに前記競合確率を求めて、一番競合確率の高い単語を決定し、 また一つの前記単語の一部を構成する音が二つの前記単語の区間のいずれにも 入り得る場合には、前記一つの単語の一部を構成する音を前記二つの単語の区間 の一方に含め、前記単語訂正手段により前記二つの単語の区間の一方に属する単 語の訂正が行われると、前記二つの単語の区間の他方の単語の区間では、時間的 な整合性が取れるように前記スキップ候補を自動選択する手法である請求項 7に記 載の音声認識装置。
[9] 前記認識結果表示手段は、リアルタイムに前記認識結果を前記画面に表示する機 能を有し、
前記単語訂正手段は、前記認識結果表示手段による前記認識結果の前記画面へ の表示と一緒に前記競合単語をリアルタイムに前記画面上に表示する機能を有して V、る請求項 1に記載の音声認識装置。
[10] 前記競合単語表示指令手段は、前記単語訂正手段により一部の前記単語が訂正 されると、その訂正された単語を前記単語列においては、ユーザにより訂正された本 来正解である単語として、再度競合単語の選び直しを行う機能を有して ヽる請求項 1 に記載の音声認識装置。
[11] 前記競合単語表示指令手段は、前記単語列中の前記訂正された単語とその前後 にそれぞれ位置し得る二つの単語及びこの二つの単語の前記競合単語との言語的 な接続確率を算出し、前記接続確率が大きいものを前記画面に表示する前記競合 単語として選び、前に前記画面に表示して ヽる前記競合単語と入れ替えを行うまた は前に前記画面に表示して 、る前記競合単語に追加する機能をさらに有して 、る請 求項 10に記載の音声認識装置。
[12] 前記音声認識手段は、前記単語訂正手段により訂正の対象となった単語、訂正時 間の情報及び前記訂正された単語に対する事後確率を蓄積データとして保存し、こ れらの蓄積データを利用して再度の音声認識を行う機能をさらに有している請求項 1 に記載の音声認識装置。
[13] 前記音声認識手段は、前記音声が入力されている途中において、発話者が発声 する特定の音声の入力により一時的に音声認識処理を停止して、前記単語訂正手 段による訂正を許容する機能を有して 、る請求項 1に記載の音声認識装置。
[14] 前記音声認識手段は、
入力される前記音声が一定時間以上連続して続く連続音であることを判定する連 続音判定手段を備えており、
前記連続音判定手段が前記連続音の入力を判定すると、前記音声認識処理を一 時停止し、前記連続音判定手段が前記連続音を判定した後に前記連続音以外の音 が入力されたことを判定すると、前記一時停止前の状態力 前記音声認識処理を続 行する機能を有して 、る請求項 1に記載の音声認識装置。
[15] 前記音声認識手段は,前記単語訂正手段により訂正の対象となった単語と,入力 された音声における前記単語の位置情報または時間情報を保存し,前記再度の音 声認識にぉ 、て、保存した位置情報または時間情報における前記単語の言語確率 を動的に強化することにより,その単語に関連する単語を認識しやすくする機能を有 している請求項 12に記載の音声認識装置.
[16] 前記音声認識手段は、音声が入力されると、音声認識処理を行うと同時に、前記音 声認識処理の認識結果を教師信号としたオンラインでの音響的適応処理を行う音響 的適応処理手段を備えて!/、る請求項 1に記載の音声認識装置.
[17] 前記音響的適応処理手段は、前記単語訂正手段により、認識誤りのない正確な教 師信号をリアルタイムに生成することで、高精度な音響的適応機能を有している請求 項 16に記載の音声認識装置。
[18] 予め定めた判定手法に従って、入力された音声に含まれる複数の単語を予め辞書 手段に記憶されている複数の単語とそれぞれ比較し、競合候補の中から一番競合確 率の高 、単語を認識結果とする音声認識ステップと、
前記音声認識ステップにより認識された認識結果を複数の単語の単語列として画 面に表示する認識結果表示ステップと、
前記画面に表示された単語列を構成する前記一番競合確率の高い複数の単語を 訂正する単語訂正ステップとを実行する音声認識方法であって、
前記単語訂正ステップでは、
前記競合候補の中から前記一番競合確率の高!ヽ単語の競合確率に近!ヽ競合確率 を持つ 1以上の競合単語を選び、対応する前記一番競合確率の高い単語に隣接し て前記画面上に表示させる競合単語表示ステップと、
ユーザによるマニュアル操作に応じて、前記画面上に表示された前記 1以上の競 合単語から適切な訂正単語を選択する競合単語選択ステップと、
前記競合単語選択ステップで選択された前記訂正単語を、先に前記音声認識ステ ップにより認識された前記一番競合確率の高い単語と置き換えて前記画面に表示す る単語置き換えステップとを実行することを特徴とする音声認識方法。
[19] 前記競合単語表示ステップでは、前記競合単語の前記競合確率の分布状況に応 じて、前記画面上に表示する前記競合単語の数を変えることを特徴とする請求項 18 に記載の音声認識方法。
[20] 前記競合単語表示ステップでは、前記一番競合確率の高!ヽ単語の競合確率に近 い競合確率を持つ前記競合単語の数が少ない場合には、前記画面上に表示する前 記競合単語の数を少なくし、前記一番競合確率の高 、単語の競合確率に近 、競合 確率を持つ前記競合単語の数が多い場合には、前記画面上に表示する前記競合 単語の数を多くする請求項 19に記載の音声認識方法。
[21] 前記競合単語表示ステップでは、前記単語列に含まれる前記複数の単語の上側ま たは下側に、競合確率の高い順番に前記競合単語が並ぶように前記画面上に表示 する請求項 18に記載の音声認識方法。
[22] 前記予め定めた判定手法は、コンフュージョン 'ネットワークを用いて前記音声入力 に基づく単語グラフを音響的なクラスタリングによりリニアな形式に圧縮した複数の単 語の区間に分け、前記複数の単語の区間ごとに前記競合確率を求めて、一番競合 確率の高い単語を決定する手法である請求項 18または 19に記載の音声認識方法。
[23] 前記競合単語表示ステップでは、前記競合単語の中に、前記一番競合確率の高 い単語が不要であるために前記認識結果力 削除することを選択可能にするスキッ プ候 を含めてあり、
前記単語置き換えステップでは、前記スキップ候補が選択されると、前記音声認識 ステップによる前記認識結果力 対応する前記一番競合確率の高い単語を削除す る請求項 18または 19に記載の音声認識方法。
[24] 前記競合単語表示ステップでは、前記競合単語の中に、前記一番競合確率の高 い単語が不要であるために前記認識結果力 削除することを選択可能にするスキッ プ候補を含めており、
前記単語置き換えステップでは、前記スキップ候補が選択されると、前記音声認識 ステップによる前記認識結果から対応する前記一番競合確率の高い単語を削除し、 前記スキップ候補にも競合確率を付与することを特徴とする請求項 19に記載の音 声認識方法。
[25] 前記予め定めた判定手法は、
コンフュージョン'ネットワークを用 、て前記音声入力に基づく単語グラフを音響的 なクラスタリングによりリニアな形式に圧縮した複数の単語の区間に分け、前記複数 の単語の区間ごとに前記競合確率を求めて、一番競合確率の高い単語を決定し、 また一つの前記単語の一部を構成する音が二つの前記単語の区間のいずれにも 入り得る場合には、前記一つの単語の一部を構成する音を前記二つの単語の区間 の一方に含め、前記単語訂正手段により前記二つの単語の区間の一方に属する単 語の訂正が行われると、前記二つの単語の区間の他方の単語の区間では、時間的 な整合性が取れるように前記スキップ候補を自動選択する手法である請求項 24に記 載の音声認識方法。
[26] 前記認識結果表示ステップは、リアルタイムに前記認識結果を前記画面に表示し、 前記単語訂正ステップでは、前記認識結果表示ステップによる前記認識結果の前 記画面への表示と一緒に前記競合単語をリアルタイムに前記画面上に表示する請 求項 18に記載の音声認識方法。
[27] 前記競合単語表示ステップでは、前記単語訂正ステップにより一部の前記単語が 訂正されると、その訂正された単語を前記単語列においては、ユーザにより訂正され た本来正解である単語として、再度競合単語の選び直しを行う請求項 18に記載の音 声認識方法。
[28] 前記競合単語表示ステップでは、前記単語列中の前記訂正された単語とその前後 にそれぞれ位置し得る二つの単語及びこの二つの単語の前記競合単語との言語的 な接続確率を算出し、前記接続確率が大きいものを前記画面に表示する前記競合 単語として選び、前に前記画面に表示して ヽる前記競合単語と入れ替えを行うまた は前に前記画面に表示している前記競合単語に追加する請求項 27に記載の音声 認識方法。
[29] 前記音声認識ステップでは、前記単語訂正ステップにより訂正の対象となった単語 、訂正時間の情報及び前記訂正された単語に対する事後確率を蓄積データとして 保存し、これらの蓄積データを利用して再度の音声認識を行う請求項 18に記載の音 声認識方法。
[30] 前記音声認識ステップでは、前記音声が入力されて!、る途中にぉ 、て、発話者が 発声する特定の音声の入力により一時的に音声認識処理を停止して、前記単語訂 正ステップによる訂正を許容する請求項 18に記載の音声認識方法。
[31] 前記音声認識ステップでは、
入力される前記音声が一定時間以上連続して続く連続音であることを判定すると、 前記音声認識処理を一時停止し、前記連続音を判定した後に前記連続音以外の音 が入力されたことを判定すると、前記一時停止前の状態力 前記音声認識処理を続 行する請求項 18に記載の音声認識方法。
[32] 前記音声認識ステップでは,前記単語訂正ステップにより訂正の対象となった単 語と、入力された音声における前記単語の位置情報または時間情報を保存し、前記 再度の音声認識において,
保存した位置情報または時間情報における前記単語の言語確率を動的に強化する ことにより、その単語に関連する単語を認識しやすくする請求項 29に記載の音声認 識方法。
[33] 前記音声認識ステップでは、音声が入力されると、音声認識処理を行うと同時に,前 記音声認識処理の認識結果を教師信号としたオンラインでの音響的適応処理を行う 請求項 18に記載の音声認識方法。
[34] コンピュータを用いて、音声を認識し、画面上に認識結果を文字で表示する機能を 前記コンピュータに実行させるためのプログラムであって、
入力された音声に含まれる複数の単語を予め辞書手段に記憶されている複数の単 語とそれぞれ比較し、競合候補の中から一番競合確率の高 、単語を認識結果とする 音声認識機能と、
前記音声認識機能により認識された認識結果を複数の単語の単語列として画面に 表示する認識結果表示機能と、
前記画面に表示された単語列を構成する前記一番競合確率の高い複数の単語を 訂正する単語訂正機能とを前記コンピュータに実行させ、 前記単語訂正機能では、
前記競合候補の中から前記一番競合確率の高!ヽ単語の競合確率に近!ヽ競合確率 を持つ 1以上の競合単語を選び、対応する前記一番競合確率の高い単語に隣接し て前記画面上に表示させる競合単語表示機能と、
ユーザによるマニュアル操作に応じて、前記画面上に表示された前記 1以上の競 合単語から適切な訂正単語を選択する競合単語選択機能と、
前記競合単語選択ステップで選択された前記訂正単語を、先に前記音声認識ステ ップにより認識された前記一番競合確率の高い単語と置き換えて前記画面に表示す る単語置き換え機能とを前記コンピュータに実行させるように構成されていることを特 徴とするプログラム。
[35] 前記競合単語表示機能では、前記競合単語の前記競合確率の分布状況に応じて 、前記画面上に表示する前記競合単語の数を変えることを特徴とする請求項 34に記 載のプログラム。
[36] 前記競合単語表示機能では、前記一番競合確率の高!ヽ単語の競合確率に近 、 競合確率を持つ前記競合単語の数が少ない場合には、前記画面上に表示する前記 競合単語の数を少なくし、前記一番競合確率の高!、単語の競合確率に近 、競合確 率を持つ前記競合単語の数が多い場合には、前記画面上に表示する前記競合単 語の数を多くする請求項 35に記載のプログラム。
[37] 前記競合単語表示機能では、前記単語列に含まれる前記複数の単語の上側また は下側に、競合確率の高い順番に前記競合単語が並ぶように前記画面上に表示す る請求項 34に記載のプログラム。
[38] 前記音声認識機能では、コンフュージョン 'ネットワークを用いて前記音声入力に基 づく単語グラフを音響的なクラスタリングによりリニアな形式に圧縮した複数の単語の 区間に分け、前記複数の単語の区間ごとに前記競合確率を求めて、一番競合確率 の高い単語を決定する請求項 34または 35に記載のプログラム。
[39] 前記競合単語表示機能では、前記競合単語の中に、前記一番競合確率の高!ヽ単 語が不要であるために前記認識結果力 削除することを選択可能にするスキップ候 ネ ΐを含めてあり、 前記単語置き換え機能では、前記スキップ候補が選択されると、前記音声認識機 能の実行による前記認識結果から対応する前記一番競合確率の高い単語を削除す る請求項 34または 35に記載のプログラム。
[40] 前記競合単語表示機能では、前記競合単語の中に、前記一番競合確率の高!ヽ単 語が不要であるために前記認識結果力 削除することを選択可能にするスキップ候 補を含めており、
前記単語置き換え機能では、前記スキップ候補が選択されると、前記音声認識機 能の実行による前記認識結果から対応する前記一番競合確率の高い単語を削除し 前記スキップ候補にも競合確率を付与することを特徴とする請求項 35に記載のプ ログラム。
[41] 前記音声認識機能では、
コンフュージョン'ネットワークを用 、て前記音声入力に基づく単語グラフを音響的 なクラスタリングによりリニアな形式に圧縮した複数の単語の区間に分け、前記複数 の単語の区間ごとに前記競合確率を求めて、一番競合確率の高い単語を決定し、 また一つの前記単語の一部を構成する音が二つの前記単語の区間のいずれにも 入り得る場合には、前記一つの単語の一部を構成する音を前記二つの単語の区間 の一方に含め、前記単語訂正手段により前記二つの単語の区間の一方に属する単 語の訂正が行われると、前記二つの単語の区間の他方の単語の区間では、時間的 な整合性が取れるように前記スキップ候補を自動選択する請求項 40に記載のプログ ラム。
[42] 前記認識結果表示機能では、リアルタイムに前記認識結果を前記画面に表示し、 前記単語訂正機能では、前記認識結果表示機能の実行による前記認識結果の前 記画面への表示と一緒に前記競合単語をリアルタイムに前記画面上に表示する請 求項 34に記載のプログラム。
[43] 前記競合単語表示機能では、前記単語訂正機能により一部の前記単語が訂正さ れると、その訂正された単語を前記単語列においては、ユーザにより訂正された本来 正解である単語として、再度競合単語の選び直しを行う請求項 34に記載のプロダラ ム。
[44] 前記競合単語表示機能では、前記単語列中の前記訂正された単語とその前後に それぞれ位置し得る二つの単語及びこの二つの単語の前記競合単語との言語的な 接続確率を算出し、前記接続確率が大きいものを前記画面に表示する前記競合単 語として選び、前に前記画面に表示して 、る前記競合単語と入れ替えを行うまたは 前に前記画面に表示している前記競合単語に追加する請求項 43に記載のプロダラ ム。
[45] 前記音声認識機能では、前記単語訂正機能の実行により訂正の対象となった単語 、訂正時間の情報及び前記訂正された単語に対する事後確率を蓄積データとして 保存し、これらの蓄積データを利用して再度の音声認識を行う請求項 34に記載のプ ログラム。
[46] 前記音声認識機能では、前記音声が入力されている途中において、発話者が発 声する特定の音声の入力により一時的に音声認識処理を停止して、前記単語訂正 機能の実行による訂正を許容する請求項 34に記載のプログラム。
[47] 前記音声認識機能では、
入力される前記音声が一定時間以上連続して続く連続音であることを判定すると、 前記音声認識処理を一時停止し、前記連続音を判定した後に前記連続音以外の音 が入力されたことを判定すると、前記一時停止前の状態力 前記音声認識処理を続 行する請求項 34に記載のプログラム。
[48] 前記音声認識機能では、前記単語訂正機能の実行により訂正の対象となった単語 と、入力された音声における前記単語の位置情報または時間情報を保存し、前記再 度の音声認識において、
保存した位置情報または時間情報における前記単語の言語確率を動的に強化する ことにより、その単語に関連する単語を認識しやすくする請求項 45に記載のプロダラ ム。
[49] 前記音声認識機能では、音声が入力されると、音声認識処理を行うと同時に、前記 認識処理の認識結果を教師信号としたオンラインでの音響的適応処理を行う請求項 34に記載のプログラム。
[50] 前記音響的適応処理は、前記単語訂正機能により、認識誤りのない正確な教師信 号をリアルタイムに生成することで、高精度な音響的適応機能を有する請求項 49に 記載のプログラム。
[51] 前記音響的適応処理は、前記単語訂正ステップにより、認識誤りのない正確な教師 信号をリアルタイムに生成することで、高精度な音響的適応機能を有する請求項 33 に記載の音声認識方法。
PCT/JP2005/021296 2004-11-22 2005-11-18 音声認識装置及び方法ならびにプログラム WO2006054724A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
GB0712277A GB2437436B (en) 2004-11-22 2005-11-18 Voice recognition device and method, and program
US11/719,479 US7848926B2 (en) 2004-11-22 2005-11-18 System, method, and program for correcting misrecognized spoken words by selecting appropriate correction word from one or more competitive words

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-338234 2004-11-22
JP2004338234A JP4604178B2 (ja) 2004-11-22 2004-11-22 音声認識装置及び方法ならびにプログラム

Publications (1)

Publication Number Publication Date
WO2006054724A1 true WO2006054724A1 (ja) 2006-05-26

Family

ID=36407260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/021296 WO2006054724A1 (ja) 2004-11-22 2005-11-18 音声認識装置及び方法ならびにプログラム

Country Status (4)

Country Link
US (1) US7848926B2 (ja)
JP (1) JP4604178B2 (ja)
GB (1) GB2437436B (ja)
WO (1) WO2006054724A1 (ja)

Cited By (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178567A (ja) * 2013-03-15 2014-09-25 Yahoo Japan Corp 音声認識装置、音声認識方法、およびプログラム
US9117447B2 (en) 2006-09-08 2015-08-25 Apple Inc. Using event alert text as input to an automated assistant
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008043582A1 (en) * 2006-10-13 2008-04-17 International Business Machines Corporation Systems and methods for building an electronic dictionary of multi-word names and for performing fuzzy searches in said dictionary
US20080114597A1 (en) * 2006-11-14 2008-05-15 Evgeny Karpov Method and apparatus
JP4997601B2 (ja) * 2006-11-30 2012-08-08 独立行政法人産業技術総合研究所 音声データ検索用webサイトシステム
US8401847B2 (en) 2006-11-30 2013-03-19 National Institute Of Advanced Industrial Science And Technology Speech recognition system and program therefor
US9973450B2 (en) 2007-09-17 2018-05-15 Amazon Technologies, Inc. Methods and systems for dynamically updating web service profile information by parsing transcribed message strings
US8352264B2 (en) * 2008-03-19 2013-01-08 Canyon IP Holdings, LLC Corrective feedback loop for automated speech recognition
JP5072415B2 (ja) * 2007-04-10 2012-11-14 三菱電機株式会社 音声検索装置
JP2009075263A (ja) * 2007-09-19 2009-04-09 Kddi Corp 音声認識装置およびコンピュータプログラム
JP4839291B2 (ja) * 2007-09-28 2011-12-21 Kddi株式会社 音声認識装置およびコンピュータプログラム
JP5327054B2 (ja) * 2007-12-18 2013-10-30 日本電気株式会社 発音変動規則抽出装置、発音変動規則抽出方法、および発音変動規則抽出用プログラム
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US20090326938A1 (en) * 2008-05-28 2009-12-31 Nokia Corporation Multiword text correction
JP5519126B2 (ja) * 2008-06-27 2014-06-11 アルパイン株式会社 音声認識装置及び音声認識方法
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP5054711B2 (ja) * 2009-01-29 2012-10-24 日本放送協会 音声認識装置および音声認識プログラム
CN102640107A (zh) * 2009-11-30 2012-08-15 株式会社东芝 信息处理装置
US8494852B2 (en) * 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US20110184736A1 (en) * 2010-01-26 2011-07-28 Benjamin Slotznick Automated method of recognizing inputted information items and selecting information items
JP5633042B2 (ja) 2010-01-28 2014-12-03 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識ロボット
US20120330662A1 (en) * 2010-01-29 2012-12-27 Nec Corporation Input supporting system, method and program
US8423351B2 (en) * 2010-02-19 2013-04-16 Google Inc. Speech correction for typed input
JP2013529317A (ja) * 2010-05-19 2013-07-18 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 対話、及び/又は、命令決定プロセスの操作データの変更
JP5160594B2 (ja) * 2010-06-17 2013-03-13 株式会社エヌ・ティ・ティ・ドコモ 音声認識装置および音声認識方法
JP5538099B2 (ja) * 2010-07-02 2014-07-02 三菱電機株式会社 音声入力インタフェース装置及び音声入力方法
US9263034B1 (en) * 2010-07-13 2016-02-16 Google Inc. Adapting enhanced acoustic models
KR101828273B1 (ko) * 2011-01-04 2018-02-14 삼성전자주식회사 결합기반의 음성명령 인식 장치 및 그 방법
US8749618B2 (en) 2011-06-10 2014-06-10 Morgan Fiumi Distributed three-dimensional video conversion system
US9026446B2 (en) * 2011-06-10 2015-05-05 Morgan Fiumi System for generating captions for live video broadcasts
US8532469B2 (en) 2011-06-10 2013-09-10 Morgan Fiumi Distributed digital video processing system
US20130073286A1 (en) * 2011-09-20 2013-03-21 Apple Inc. Consolidating Speech Recognition Results
JP5679346B2 (ja) * 2012-02-22 2015-03-04 日本電信電話株式会社 識別的音声認識精度推定装置、識別的音声認識精度推定方法、プログラム
JP5679345B2 (ja) * 2012-02-22 2015-03-04 日本電信電話株式会社 音声認識精度推定装置、音声認識精度推定方法、プログラム
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
CN103714048B (zh) 2012-09-29 2017-07-21 国际商业机器公司 用于校正文本的方法和系统
CN103871401B (zh) * 2012-12-10 2016-12-28 联想(北京)有限公司 一种语音识别的方法及电子设备
JP2014134640A (ja) * 2013-01-09 2014-07-24 Nippon Hoso Kyokai <Nhk> 文字起こし装置およびプログラム
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
JP6155821B2 (ja) * 2013-05-08 2017-07-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN104157285B (zh) * 2013-05-14 2016-01-20 腾讯科技(深圳)有限公司 语音识别方法、装置及电子设备
JP2015022590A (ja) * 2013-07-19 2015-02-02 株式会社東芝 文字入力装置、文字入力方法、及び文字入力プログラム
KR102229972B1 (ko) * 2013-08-01 2021-03-19 엘지전자 주식회사 음성 인식 장치 및 그 방법
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
JP6272496B2 (ja) * 2014-07-22 2018-01-31 三菱電機株式会社 単語のシーケンスを含む音声を認識するための方法及びシステム
JPWO2016104193A1 (ja) * 2014-12-26 2017-05-25 シャープ株式会社 対応決定装置、音声対話システム、対応決定装置の制御方法、および音声対話装置
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
EP3089159B1 (en) * 2015-04-28 2019-08-28 Google LLC Correcting voice recognition using selective re-speak
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10769184B2 (en) 2015-06-05 2020-09-08 Apple Inc. Systems and methods for providing improved search functionality on a client device
US10360902B2 (en) * 2015-06-05 2019-07-23 Apple Inc. Systems and methods for providing improved search functionality on a client device
US11423023B2 (en) 2015-06-05 2022-08-23 Apple Inc. Systems and methods for providing improved search functionality on a client device
US10134425B1 (en) * 2015-06-29 2018-11-20 Amazon Technologies, Inc. Direction-based speech endpointing
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10121471B2 (en) * 2015-06-29 2018-11-06 Amazon Technologies, Inc. Language model speech endpointing
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
CN106251869B (zh) 2016-09-22 2020-07-24 浙江吉利控股集团有限公司 语音处理方法及装置
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US20180315415A1 (en) * 2017-04-26 2018-11-01 Soundhound, Inc. Virtual assistant with error identification
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
CN107437416B (zh) * 2017-05-23 2020-11-17 创新先进技术有限公司 一种基于语音识别的咨询业务处理方法及装置
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US11694675B2 (en) 2018-02-20 2023-07-04 Sony Corporation Information processing apparatus, information processing system, and information processing method
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10269376B1 (en) * 2018-06-28 2019-04-23 Invoca, Inc. Desired signal spotting in noisy, flawed environments
JP7107059B2 (ja) * 2018-07-24 2022-07-27 日本電信電話株式会社 文生成装置、モデル学習装置、文生成方法、モデル学習方法、及びプログラム
JP6601826B1 (ja) * 2018-08-22 2019-11-06 Zホールディングス株式会社 分割プログラム、分割装置、及び分割方法
JP6601827B1 (ja) * 2018-08-22 2019-11-06 Zホールディングス株式会社 結合プログラム、結合装置、及び結合方法
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JP7063843B2 (ja) * 2019-04-26 2022-05-09 ファナック株式会社 ロボット教示装置
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
CN110415679B (zh) * 2019-07-25 2021-12-17 北京百度网讯科技有限公司 语音纠错方法、装置、设备和存储介质
US11263198B2 (en) 2019-09-05 2022-03-01 Soundhound, Inc. System and method for detection and correction of a query
CN112562675B (zh) 2019-09-09 2024-05-24 北京小米移动软件有限公司 语音信息处理方法、装置及存储介质
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN111261166B (zh) * 2020-01-15 2022-09-27 云知声智能科技股份有限公司 一种语音识别方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5876944A (ja) * 1981-10-31 1983-05-10 Toshiba Corp 複数候補の表示方法
JPH01197797A (ja) * 1988-02-02 1989-08-09 Ricoh Co Ltd 音節認識結果選択方式
US5329609A (en) * 1990-07-31 1994-07-12 Fujitsu Limited Recognition apparatus with function of displaying plural recognition candidates
JPH09258786A (ja) * 1996-03-21 1997-10-03 Fuji Xerox Co Ltd 調整機能を有する音声認識装置
JP2003005789A (ja) * 1999-02-12 2003-01-08 Microsoft Corp 文字処理装置および方法
JP2003295884A (ja) * 2002-03-29 2003-10-15 Univ Waseda 音声入力モード変換システム
JP2003316384A (ja) * 2002-04-24 2003-11-07 Nippon Hoso Kyokai <Nhk> リアルタイム文字修正装置、およびその方法、ならびにそのプログラム、その記憶媒体
EP1471502A1 (en) * 2003-04-25 2004-10-27 Sony International (Europe) GmbH Method for correcting a text produced by speech recognition
JP2005234236A (ja) * 2004-02-19 2005-09-02 Canon Inc 音声認識装置、音声認識方法、記憶媒体およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301395A (ja) 1993-04-13 1994-10-28 Sony Corp 音声認識装置
US5829000A (en) * 1996-10-31 1998-10-27 Microsoft Corporation Method and system for correcting misrecognized spoken words or phrases
JPH10197797A (ja) * 1997-01-06 1998-07-31 Olympus Optical Co Ltd 結像光学系
JP3440840B2 (ja) * 1998-09-18 2003-08-25 松下電器産業株式会社 音声認識方法及びその装置
TW473704B (en) * 2000-08-30 2002-01-21 Ind Tech Res Inst Adaptive voice recognition method with noise compensation
US6754625B2 (en) * 2000-12-26 2004-06-22 International Business Machines Corporation Augmentation of alternate word lists by acoustic confusability criterion
US6785650B2 (en) * 2001-03-16 2004-08-31 International Business Machines Corporation Hierarchical transcription and display of input speech
JP4604377B2 (ja) 2001-03-27 2011-01-05 株式会社デンソー 音声認識装置
JP2002297181A (ja) 2001-03-30 2002-10-11 Kddi Corp 音声認識語彙登録判定方法及び音声認識装置
US6859774B2 (en) * 2001-05-02 2005-02-22 International Business Machines Corporation Error corrective mechanisms for consensus decoding of speech
JP2004309928A (ja) 2003-04-09 2004-11-04 Casio Comput Co Ltd 音声認識装置、電子辞書装置、音声認識方法、検索方法、及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5876944A (ja) * 1981-10-31 1983-05-10 Toshiba Corp 複数候補の表示方法
JPH01197797A (ja) * 1988-02-02 1989-08-09 Ricoh Co Ltd 音節認識結果選択方式
US5329609A (en) * 1990-07-31 1994-07-12 Fujitsu Limited Recognition apparatus with function of displaying plural recognition candidates
JPH09258786A (ja) * 1996-03-21 1997-10-03 Fuji Xerox Co Ltd 調整機能を有する音声認識装置
JP2003005789A (ja) * 1999-02-12 2003-01-08 Microsoft Corp 文字処理装置および方法
JP2003295884A (ja) * 2002-03-29 2003-10-15 Univ Waseda 音声入力モード変換システム
JP2003316384A (ja) * 2002-04-24 2003-11-07 Nippon Hoso Kyokai <Nhk> リアルタイム文字修正装置、およびその方法、ならびにそのプログラム、その記憶媒体
EP1471502A1 (en) * 2003-04-25 2004-10-27 Sony International (Europe) GmbH Method for correcting a text produced by speech recognition
JP2005234236A (ja) * 2004-02-19 2005-09-02 Canon Inc 音声認識装置、音声認識方法、記憶媒体およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ENDO T. ET AL: "Onsei Nyuryoku ni Okeru Taiwateki Koho Sentaku Shuho", INTERACTION 2003, INFORMATION PROCESSING SOCIETY OF JAPAN SYMPOSIUM SERIES, vol. 2003, no. 7, 27 February 2003 (2003-02-27), pages 195 - 196, XP002999326 *
MANGU L. ET AL: "Finding consensus in speech recognition: word error minimization and other applications of confusion networks2", COMPUTER SPEECH AND LANGUAGE, vol. 14, no. 4, October 2000 (2000-10-01), pages 373 - 400, XP004418725 *
OGATA J. ET AL: "Onsei Tesei: 'CHOICE' on Speech", INFORMATION PROCESSING OF JAPAN, vol. 2004, no. 131, 20 December 2004 (2004-12-20), pages 319 - 324, XP002999327 *

Cited By (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9117447B2 (en) 2006-09-08 2015-08-25 Apple Inc. Using event alert text as input to an automated assistant
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
JP2014178567A (ja) * 2013-03-15 2014-09-25 Yahoo Japan Corp 音声認識装置、音声認識方法、およびプログラム
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services

Also Published As

Publication number Publication date
GB0712277D0 (en) 2007-08-01
JP4604178B2 (ja) 2010-12-22
JP2006146008A (ja) 2006-06-08
US7848926B2 (en) 2010-12-07
US20080052073A1 (en) 2008-02-28
GB2437436A (en) 2007-10-24
GB2437436B (en) 2009-07-08

Similar Documents

Publication Publication Date Title
JP4604178B2 (ja) 音声認識装置及び方法ならびにプログラム
JP4510953B2 (ja) 音声認識におけるノンインタラクティブ方式のエンロールメント
US5995928A (en) Method and apparatus for continuous spelling speech recognition with early identification
Juang et al. Automatic speech recognition–a brief history of the technology development
EP0376501B1 (en) Speech recognition system
JP3454897B2 (ja) 音声対話システム
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
JP4444396B2 (ja) 音声認識におけるポジション操作
JP5381988B2 (ja) 対話音声認識システム、対話音声認識方法および対話音声認識用プログラム
US20120016671A1 (en) Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions
JP2002258890A (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JP2003316386A (ja) 音声認識方法および音声認識装置および音声認識プログラム
JP5105943B2 (ja) 発話評価装置及び発話評価プログラム
JP4634156B2 (ja) 音声対話方法および音声対話装置
JP2010197644A (ja) 音声認識システム
Kamm et al. Design issues for interfaces using voice input
JP2003163951A (ja) 音信号認識システムおよび音信号認識方法並びに当該音信号認識システムを用いた対話制御システムおよび対話制御方法
Batlouni et al. Mathifier—Speech recognition of math equations
JP2004029354A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2005258235A (ja) 感情発話検知による対話修正機能を備えた対話制御装置
JP2001013992A (ja) 音声理解装置
JP4790956B2 (ja) 音声認識器における綴りモード
JPH06250689A (ja) 音声認識装置
KR101830210B1 (ko) 적어도 하나의 의미론적 유닛의 집합을 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 0712277

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20051118

WWE Wipo information: entry into national phase

Ref document number: 0712277.3

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 11719479

Country of ref document: US

REG Reference to national code

Ref country code: GB

Ref legal event code: 789A

Ref document number: 0712277

Country of ref document: GB

122 Ep: pct application non-entry in european phase

Ref document number: 05806831

Country of ref document: EP

Kind code of ref document: A1

WWP Wipo information: published in national office

Ref document number: 11719479

Country of ref document: US