WO2012004955A1 - テキスト補正方法及び認識方法 - Google Patents

テキスト補正方法及び認識方法 Download PDF

Info

Publication number
WO2012004955A1
WO2012004955A1 PCT/JP2011/003771 JP2011003771W WO2012004955A1 WO 2012004955 A1 WO2012004955 A1 WO 2012004955A1 JP 2011003771 W JP2011003771 W JP 2011003771W WO 2012004955 A1 WO2012004955 A1 WO 2012004955A1
Authority
WO
WIPO (PCT)
Prior art keywords
words
word
text
feature
recognition
Prior art date
Application number
PCT/JP2011/003771
Other languages
English (en)
French (fr)
Inventor
前岡 淳
木村 淳一
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2012004955A1 publication Critical patent/WO2012004955A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/226Validation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods

Definitions

  • the present invention relates to a text correction method and a recognition method for correcting errors included in output text such as speech recognition and character input.
  • n-gram is a method for determining candidate words for successive speech recognition using the appearance probability of a connection of n words. The appearance probability is calculated in advance from a large amount of sample sentences.
  • the second model (example sentence model) recognizes a word that may be erroneous.
  • a recognizing voice recognition device is disclosed.
  • the effect of reducing the processing load due to the second model is shown by performing recognition with the second model only on the portion estimated to be an error.
  • Patent Document 2 discloses an information processing apparatus that improves recognition performance by combining global context processing and local context processing in speech recognition recognition processing.
  • Patent Document 1 In a conventional apparatus that estimates an error included in a recognized sentence output by the first language model and corrects misrecognition using the second language model, as shown in Patent Document 1, each recognition sentence It is necessary to perform processing for searching for correction candidates from the recognition vocabulary set of the second language model for the words, and it is necessary to perform processing with high load for each word of the recognized sentence. Therefore, in Patent Document 1, the processing load by the second language model is reduced by performing correction processing by the second language model only for words that are likely to be erroneous among the recognition results by the first language model. However, there is a problem that an error included in a word that is not a target to be corrected cannot be corrected.
  • Patent Document 2 when a plurality of language models as shown in Patent Document 2 are combined and recognition processing is performed in real time, it is necessary to perform recognition processing for each word using a plurality of language models. Moreover, it is not possible to preferentially allocate computing resources for correcting important errors.
  • the present invention has been made in view of the above problems, and corrects misrecognition using the second language model at high speed with respect to misrecognition of the output result by the first language model, or is important. It is an object of the present invention to provide a text correction method and a recognition method capable of preferentially allocating computer resources to various errors.
  • a text correction method is (1) a text correction method for correcting an error word included in text by error correction, wherein the error correction is different from the text.
  • a word included in the text comprising a feature word extraction step of comparing a vocabulary set made up of a set of words with the appearance frequency of the words included therein and extracting a set of feature words from the text and the vocabulary set; And a word included in the set of feature words determined to be similar to the word included in the text, and the word included in the text is corrected with respect to the word included in the text It is characterized by being output as a candidate word.
  • the amount of processing to be corrected can be reduced by extracting feature words in advance in the feature word extraction step.
  • the error correction includes a singular word extraction step of extracting a word that is not included in the feature word set among words included in the text as a singular word set; Similarity calculation and correction candidate output may be performed for each word of the singular word set.
  • (3) the error correction is performed in addition to the similarity between the word included in the text and the word included in the feature word set, as well as the word included in the feature word set. Whether or not a word included in the set of feature words is output as a correction candidate word may be determined based on the feature degree.
  • the error correction may be a frequency at which words included in the set of feature words are included in the text in addition to the similarity between the words included in the text and the words included in the set of feature words. Thus, it may be determined whether or not a word included in the set of feature words is output as a correction candidate word.
  • the error correction is performed by adding a word included in the feature word set in addition to the similarity between the word included in the text and the word included in the feature word set. Depending on the frequency included in the text, it may be determined whether or not a word included in the set of feature words is output as a correction candidate word.
  • the error correction is performed such that, in addition to the similarity between the word included in the text and the word included in the set of feature words, the word included in the text includes the text Whether or not to output a word included in the set of feature words as a correction candidate word may be determined based on the frequency included in the word.
  • the text is a text generated from a first recognized vocabulary set, and the error correction is included in the word included in the text and the feature word set.
  • a word included in the set of feature words is corrected as a candidate word according to whether or not a word included in the set of feature words is included in the first recognition vocabulary set in addition to the similarity to the word. It may be determined whether to output as.
  • the error word included in the text output by the recognition step by the first recognition model using the non-text data as an input is converted into the error word by the error correction by the second recognition model.
  • the recognition step generates a set of recognition words in time series from recognition words recognized by the first recognition model from non-text data in time series, and the error correction includes:
  • the set of recognized words and the vocabulary set included in the second recognition model are compared with the appearance frequency of the words included in them, and the set of feature words is determined from the set of recognized words and the vocabulary set.
  • a feature word extracting step for extracting, calculating a similarity between the set of recognized words and a word included in the set of feature words, and calculating a single word included in the set of recognized words. was determined to be similar to, the words included in said set of characteristic words, and outputs a word correction candidate for words included in the set of the recognized word.
  • the amount of processing to be corrected can be reduced by extracting feature words in advance in the feature word extraction step.
  • the error correction includes a singular word extraction step of extracting a word that is not included in the feature word set among words included in the text as a set of singular words, Similarity calculation and correction candidate output may be performed for each word of the singular word set.
  • the error correction is performed in addition to the similarity between the word included in the text and the word included in the feature word set, as well as the word included in the feature word set. Whether or not a word included in the set of feature words is output as a correction candidate word may be determined based on the feature degree.
  • the error correction may be a frequency at which words included in the set of feature words are included in the text in addition to the similarity between the words included in the text and the words included in the set of feature words. Thus, it may be determined whether or not a word included in the set of feature words is output as a correction candidate word.
  • the error correction is performed in such a manner that the word included in the feature word set is added to the similarity between the word included in the text and the word included in the feature word set. Depending on the frequency included in the text, it may be determined whether or not a word included in the set of feature words is output as a correction candidate word.
  • the error correction is performed in such a manner that the word included in the text is added to the text in addition to the similarity between the word included in the text and the word included in the feature word set. Whether or not to output a word included in the set of feature words as a correction candidate word may be determined based on the frequency included in the word.
  • the text is a text generated from a first recognized vocabulary set, and the error correction is included in the word included in the text and the feature word set.
  • a word included in the set of feature words is corrected as a candidate word according to whether or not a word included in the set of feature words is included in the first recognition vocabulary set in addition to the similarity to the word. It may be determined whether to output as.
  • the error correction may change the frequency of extracting the feature words from the vocabulary set.
  • the error correction may change a frequency of extracting the feature word from the vocabulary set based on an extraction time interval.
  • the error correction may change the frequency of extracting the feature word from the vocabulary set based on a processing load situation of a computer.
  • an erroneously recognized portion can be estimated and replaced at high speed by the erroneous recognition correction processing by the second recognition model for the recognition sentence output by the first recognition model. Further, correction processing can be performed with priority given to important mistakes according to the load state of computer resources.
  • FIG. 1 It is a figure which shows the structure of the mobile telephone which concerns on one Embodiment of this invention. It is a block diagram which shows the structure of the mobile telephone of FIG. It is an example sentence which shows the processing result of this invention. It is a figure which shows notionally the operation
  • a mobile phone 10 in which the text correction method of the present invention is implemented includes a microphone 101, a main memory 102, a CPU 103, a display unit 104, and a secondary storage device 105. The These are connected to the internal bus 105.
  • the secondary storage device 105 stores a speech recognition program 107, a computer load acquisition program 108, a misrecognition correction program 109, a word list creation program 112, a feature word extraction program 115, and a document DB creation program 118. Are loaded into the main memory 102 as necessary, and the CPU 103 operates according to these programs, thereby executing a later-described erroneous recognition correction process.
  • the misrecognition correction program 109 further includes partial programs such as a phoneme string conversion program 110 and a correction determination program 111.
  • the word list creation program 112 further includes partial programs such as a morphological analysis program 113 and a frequency calculation program 114.
  • the feature word extraction program 115 further includes partial programs such as a similar document search program 116 and a word feature degree calculation program 117.
  • the secondary storage device 105 further stores a document DB 119 and a language model 120.
  • the document DB 119 is a table in which, for a plurality of text documents, a table representing the appearance frequency of each word in the text document is managed for each text document.
  • the plurality of text documents are, for example, conversation sentences on various topics, explanation sentences for each word in the dictionary, transmission / reception sentences of e-mails, and the like.
  • the language model 120 is dictionary data used for speech recognition by the speech recognition program 107.
  • FIG. 2 is a diagram conceptually showing the operation of the misrecognition correction process by the mobile phone 10 of the present embodiment.
  • the human voice input from the microphone 101 is converted into a recognition sentence 212 by voice recognition processing.
  • This recognition sentence 212 is considered to include misrecognition.
  • the frequency of each word included in the recognized sentence 212 is calculated by the word list creation process, and the word list 213 is created.
  • a feature word list 215 is created from the created word list 213 by feature word extraction processing.
  • the correction sentence 216 is generated by comparing the similarity between the created feature word list 215 and the original word list 213 by the correction determination process, and is displayed to the user through the display unit 104.
  • the speech recognition processing, the word list creation processing, the feature word extraction processing, and the correction determination processing are respectively the speech recognition unit 202, the word list creation unit 203, the feature word extraction unit 206, and the error that are the functional units of the CPU 103. It is executed by the recognition correction unit 209.
  • the recognition sentence 212 output by the speech recognition process for a human utterance sentence includes two words “planting tree” and “school song” as errors.
  • a set of words included in the recognition sentence 212 is set as a set W.
  • a set of feature words extracted by the feature word extraction process for the recognized sentence 212 is a feature word list 215. This is set K.
  • words that are not included in the set K are determined to be words that do not conform to this context (hereinafter referred to as singular words), and are determined to have a possibility of error.
  • correction candidates “meal” and “expensive” are selected for the above-mentioned “tree planting” and “school song”, and a correction sentence 216 is output.
  • FIG. 5 is a flowchart showing a procedure for erroneous recognition correction.
  • the voice recognition unit 202 performs voice recognition from the voice input from the microphone 101, and generates a recognition sentence 212 from each word included in the language model 120 (step S501).
  • the morphological analysis unit 204 of the word list creation unit 203 breaks down the recognized sentence 212 into words, and then the frequency calculation creation unit 205 counts the frequency of each word included in the recognized sentence 212 to create the word list 213.
  • FIG. 7 shows an example of the word list 213.
  • the feature word extraction unit 206 generates a feature word list 215 from the word list 213 and the word list 213 of each document in the document DB 119 (step S503).
  • FIG. 8 shows an example of the feature word list 215. Details of the processing in step S503 will be described later.
  • the extracted feature word list 215 is data in which a list of characteristic words corresponding to the topic of the recognized sentence 212 is arranged in descending order of the feature degree.
  • the misrecognition correction unit 209 performs processing for each entry in the word list 213 (from step S504 to step S515).
  • the misrecognition correction unit 209 checks, for each entry in the word list 213, whether or not there is the same word in the feature word list 215, and if it is not determined that this word is a singular word, in step S505, The process proceeds to the next entry process (Yes in step S506). If it is not in the feature word list 215 (No in step S506), the process proceeds to the correction determination process after step S507.
  • the current load of the computer is acquired from the computer load acquisition unit 201, and a comparison number m ′ with a feature word list described later is determined according to the load (step S 507), and the correction determination unit 211 of the misrecognition correction unit 209.
  • similarities of the top m ′ of the feature word list 215 are compared in descending order of feature (steps S508 to S514).
  • the correction determination unit 211 compares the similarity between Wi and Kj, and calculates a determination value as to whether or not to be a correction candidate (step S511).
  • Wi represents the i-th word in the word list 213
  • Kj represents the j-th word in the feature word list 215. Details of step S511 will be described later.
  • step S511 If the determination value calculated in step S511 exceeds the threshold value (Yes in step S512), it is determined to be erroneous recognition, and Kj is stored as an erroneous recognition correction candidate for Wi (step S513). If it is below the threshold (No in step S512), it is determined that Kj is not a Wi correction candidate, and the process returns to the next feature word (step S514).
  • the comparison is completed with all m ′ feature words (Yes in step S509), i is added in step S510, and the process returns to step S505 to be reflected in the processing of the next input word (step S505).
  • step S505 When the processing of the word list of all the recognized sentences is finished (Yes in step S505), among the words in the word list 213, the corresponding word of the recognized sentence 212 is found for the word for which the correction candidate is found in step S513. Then, it is replaced with a correction candidate word and output (step S515). In this case, when there are a plurality of correction candidates, the correction candidate determined to have the highest similarity in step S511 is adopted.
  • FIG. 6 is a flowchart showing the procedure of the feature word extraction process in step S503.
  • the similar document search unit 207 of the feature word extraction unit 206 performs an inner product operation of vectors between the word list 213 created from the recognized sentence 212 and the word list 213 of each document stored in the document DB 119 (step S601).
  • each element of the vector is an appearance frequency of each word. Therefore, the number of words is different from the number of dimensions of a vector.
  • a fixed number (assumed to be ⁇ ) is extracted as the similar document 214 with respect to the recognized sentence 212 in order from the smallest inner product value (step S602).
  • the word feature degree calculation unit 208 calculates the feature degree for each appearing word for each of the extracted similar documents 214 by a method called tf-idf (step S603).
  • tf-idf is a calculation method that is widely used as a method of calculating the word feature.
  • the appearance frequency of the word w in the document d is tf and the number of appearing documents is df in all the documents (all documents in the document DB 109 in this example)
  • the tf-idf value in the document d of the word w is In this embodiment, the calculation is performed using the following calculation formula.
  • this is an example of a method for calculating the feature degree, and is not limited thereto.
  • Tf-idf value of word w tf / idf
  • an average between the extracted similar documents 214 is taken for the calculated if-idf value of each word (step S604).
  • m items in descending order of the average value are generated as the feature word list 215 (step S605).
  • FIG. 9 is a flowchart illustrating the procedure of the correction determination process in step S511.
  • the phoneme string conversion unit 210 of the misrecognition correction unit 209 converts the word Wi and the word Kj into kana and then converts them into phoneme string notation (step S901).
  • the edit distance between the respective Roman alphabets is calculated (step S902).
  • the edit distance is a value obtained by calculating how many times insertion / deletion / replacement of word A can be performed to change to word B.
  • the value calculated in this way is the edit distance, and is one of the indices of similarity between word A and word B (determined that the smaller the value, the higher the similarity).
  • Wi and Kj are changed to phoneme strings, but this can be changed depending on the field of application of the present invention.
  • a method of converting to Roman character conversion in character input is conceivable.
  • a final determination value is calculated from the edit distance and the number of appearances. For example, it calculates with the following formulas. In this example, the higher the number of times Kj appears in the recognized sentence 212, the higher the degree of similarity. That is, when it appears in a portion other than the correction determination target, it is a method for increasing the similarity of the correction candidate.
  • Judgment value (Edit distance / (Number of appearances + 1))
  • a method of changing the weight depending on whether or not Kj is a word included in the language model 120 is also included in the present invention. That is, since a word that is not in the language model 120 does not appear in the recognized sentence 212, this is a method of increasing the probability of being a correction candidate.
  • a method of using the Kj feature as a weight is also included in the present invention. This is a method of increasing the probability that a word having a high Kj feature level, that is, a high importance level, is a correction candidate.
  • the determination value calculation process exemplified here is an example, and any method may be used as long as it is a method for determining replacement between words.
  • the language model for correction is searched only once, and a list of feature words that are correction candidates is extracted in advance. Thus, it is possible to efficiently perform correction determination processing for all words in the recognized sentence.
  • a task for performing speech recognition and a task for performing feature word extraction for performing the correction process operate in parallel.
  • the task of performing speech recognition repeatedly performs speech recognition processing and outputs sequentially recognized recognition words 1101 (same as step S501 in the first embodiment) while there is speech input (Yes in step S1101).
  • an erroneous recognition determination process is performed on the recognized word 1101 (similar to steps S504 to S514 in the first embodiment). If it is determined that the word is an incorrect word as a result of the erroneous recognition determination, the correction candidate word is added to the recognized sentence 1102. If it is determined that there is no mistake, the original recognized word 1101 is added to the recognized sentence 1102.
  • the task that performs feature word extraction performs feature word extraction processing as necessary while the recognition task is operating (No in step S1104).
  • a feature word extraction necessity determination is performed.
  • the timing for performing the process of extracting feature words is determined. Examples of determination criteria include whether a certain time has passed since the previous determination, whether the number of words included in the recognized sentence has increased by a certain number, or whether the CPU load on the computer is below a certain level (step S1105). If it is determined that feature word extraction is necessary (Yes in step S1106), the feature word list 215 is extracted from the recognized sentence 212 (similar to step S503 in the first embodiment). If it is determined that the feature word is unnecessary (No in step S1106), the process is stopped for a certain time (step S1107).
  • the feature word extraction processing step S503 is not performed on the recognition word 1101 output in step S501, but the feature word list 215 extracted intermittently based on the determination criterion in step S1105 is used.
  • step S1102 erroneous recognition is determined. Since the feature word extraction process with a high processing load is not performed each time the word recognition is performed for speech recognition, and the erroneous recognition correction in step S1103 is performed for each word, the second recognition model for correction is searched ( It is possible to perform correction processing on all words of the recognition result by the first recognition model in real time while suppressing a calculation load necessary for searching the document DB 119 in this example.
  • FIG. 12, FIG. 13 and FIG. 14 are diagrams showing the system configuration of the embodiment.
  • a system is shown in which the feature word extraction process shown in the first and second embodiments is executed by another computer connected by a network.
  • the word list 213 created by the mobile phone 10 is transmitted to the server 20 (steps S1301 and S1302), and the server extracts the feature word list 215 based on the received word list 213 (step S503).
  • the server transmits the extracted feature word list 215 to the mobile phone (steps S1303 and S1304), and the mobile phone performs a misrecognition correction process to generate a correction sentence 216 (step S1102).
  • This example shows an example in which processing with a large amount of data and calculation is performed on the server side.
  • the present invention it is possible to efficiently execute estimation / correction candidate presentation of a misrecognized portion with respect to a recognized sentence including an error, and it is possible to preferentially perform correction processing for an important error. Therefore, it can be applied to all corrections of recognition techniques such as voice recognition, language input system in PC, voice command recognition, etc., and can be easily applied to mobile phones and navigation systems with limited computer resources.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

 音声認識等の出力である誤りの含まれる認識文に対して、誤認識箇所の推定・補正候補提示を効率よく実行するとともに、重要な誤りに対して優先的に補正処理を行う装置を提供する。 認識文に対して、特徴語抽出処理によって特徴語の集合である特徴語リストを抽出し、認識文中の単語のうち、特徴語リストに含まれない単語は、この文脈に即さない単語(以下、特異語と呼ぶ)であると判断し、誤りの可能性があると判断する。特異語と判断された各単語に対して、特徴語リストに含まれる単語ひとつひとつと、類似度を比較し、類似度が高いと判断された単語を、特異語に対する修正候補とする。このようにあらかじめ特徴語を抽出する。

Description

テキスト補正方法及び認識方法
 本発明は、音声認識や文字入力などの出力テキストに含まれる誤りを修正するテキスト補正方法及び認識方法に関する。
 人間が発生した音声を入力とし、テキスト文を認識結果として出力する技術を音声認識と呼ぶ。音声認識において認識単語を決定するための言語モデルとして、n-gramと呼ばれるものが広く用いられている。n-gramとは、n個の単語のつながりの出現確率を用いて、逐次音声認識を行っていく際の各単語の候補を決定する方法である。出現確率は、大量のサンプル文から、あらかじめ算出しておく。
 しかし、単一の言語モデルを用いた音声認識では、認識結果に認識誤りが含まれることが避けられない。例えば、n-gramでは、近接するn単語の並びのみに着目するため、より大域的な文法や文脈を考慮した認識結果がえられない。
 そこで、複数の言語モデルを組み合わせることで、認識精度を高めたり、ある言語モデルでの認識結果に含まれる誤認識を、別の言語モデルで修正したりする技術が提案されている。
 例えば、特許文献1には、第一の言語モデル(例えばn-gram)の認識結果に含まれる単語のうち、誤りの可能性がある単語について、第二のモデル(用例文モデル)で、認識しなおす音声認識装置が開示されている。このとき、第一の言語モデルにおいて、誤りと推定される部分のみ第二のモデルでの認識を行うことで、第二のモデルによる処理負荷を軽減する効果が示されている。
 また、特許文献2には、音声認識の認識処理において、大域文脈による処理と局所文脈による処理を組み合わせて認識性能を高める情報処理装置が開示されている。
特開2005-84436号公報 特開2008-181537号公報
 特許文献1に示されるような、第一の言語モデルで出力された認識文に含まれる誤りを推定し、第二の言語モデルを用いて誤認識補正を行う従来の装置では、認識文の各単語に対して、第二の言語モデルの有する認識語彙集合から、補正候補を検索する処理を行う必要があり、認識文の各単語ごとに、負荷の高い処理を行う必要があった。そこで特許文献1では、第一の言語モデルによる認識結果のうち、誤りの可能性の高い単語についてのみ、第二の言語モデルによる補正処理を行うことで、第二の言語モデルによる処理負荷を低減する方法が示されているが、補正処理を行う対象から外れた単語に含まれる誤りを補正できないという問題がある。
 また、従来技術では、認識文の各単語について、認識文の文脈にかかわらず一意に補正処理対象の検索を行うため、認識文中の重要な誤りの補正に対して優先的に処理を行うことができなかった。
 また、特許文献2に示されるような複数の言語モデルを組み合わせて、リアルタイムに認識処理を行う場合、複数の言語モデルによる認識処理を各単語ごと行う必要がある。また、重要な誤りの修正に対して、優先的に計算資源を割り当てることが出来ない。
 本発明は、上記問題に鑑みてなされたものであり、第一の言語モデルによる出力結果の誤認識に対して第二の言語モデルを用いた誤認識の補正を高速に実施する、あるいは、重要な誤りに優先的に計算機資源を割り当てることが可能なテキスト補正方法、及び認識方法を提供することを目的とする。
 上記目的を達成するため、本発明に係るテキスト補正方法は、(1)テキストに含まれる誤り単語を、誤り補正によって補正するテキスト補正方法であって、前記誤り補正は、前記テキストと、別の単語の集合からなる語彙集合とを、それらに含まれる単語の出現頻度で比較して、前記テキストおよび語彙集合から特徴語の集合を抽出する特徴語抽出ステップを有し、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度を算出し、前記テキストに含まれる単語に類似すると判定した、前記特徴語の集合に含まれる単語を、前記テキストに含まれる単語に対する補正候補の単語として出力することを特徴とする。
 この様に、特徴語抽出ステップによってあらかじめ特徴語を抽出することにより、補正する処理量を削減することができる。
 また、(1)において、(2)前記誤り補正は、前記テキストに含まれる単語のうち、前記特徴語の集合に含まれない単語を特異語の集合として抽出する特異語抽出ステップを有し、前記特異語の集合の各単語に対して、類似度の算出と補正候補の出力を行ってもよい。
 また、(1)において、(3)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語の特徴度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(1)において、(4)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(1)において、(5)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記テキストに含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(1)において、(6)前記テキストは、第一の認識語彙集合から生成されたテキストであって、前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記第一の認識語彙集合中に含まれるかどうかによって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(7)本発明に係る認識方法は、非テキストデータを入力として第一の認識モデルによる認識ステップによって出力されたテキストに含まれる誤り単語を、第二の認識モデルによる誤り補正によって誤り単語を補正する認識方法であって、前記認識ステップは、時系列の非テキストデータから前記第一の認識モデルによって、認識した認識単語から、時系列な認識単語の集合を生成し、前記誤り補正は、前記認識単語の集合と、第二の認識モデルに含まれる語彙集合とを、それらに含まれる単語の出現頻度で比較して、前記認識単語の集合および前記語彙集合から、特徴語の集合を抽出する特徴語抽出ステップを有し、前記認識単語の集合と、前記特徴語の集合に含まれる単語との類似度を算出し、前記認識単語の集合に含まれる単語に類似すると判定した、前記特徴語の集合に含まれる単語を、前記認識単語の集合に含まれる単語に対する補正候補の単語として出力することを特徴とする。
 この様に、特徴語抽出ステップによってあらかじめ特徴語を抽出することにより、補正する処理量を削減することができる。
 また、(7)において、(8)前記誤り補正は、前記テキストに含まれる単語のうち、前記特徴語の集合に含まれない単語を特異語の集合として抽出する特異語抽出ステップを有し、前記特異語の集合の各単語に対して、類似度の算出と補正候補の出力を行ってもよい。
 また、(7)において、(9)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語の特徴度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(7)において、(10)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(7)において、(11)前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記テキストに含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(7)において、(12)前記テキストは、第一の認識語彙集合から生成されたテキストであって、前記誤り補正は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記第一の認識語彙集合中に含まれるかどうかによって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定してもよい。
 また、(7)において、(13)前記誤り補正は、前記語彙集合から前記特徴語を抽出する頻度を変えてもよい。
 また、(7)において、(14)前記誤り補正は、抽出の時間間隔に基づいて前記語彙集合から前記特徴語を抽出する頻度を変えてもよい。
 また、(7)において、(15)前記誤り補正は、計算機の処理負荷状況に基づいて前記語彙集合から前記特徴語を抽出する頻度を変えてもよい。
 本発明によれば、第一の認識モデルで出力された認識文に対して、第二の認識モデルによる誤認識補正処理によって、高速に誤認識部分の推定と置換え処理を行うことができる。また、計算機資源の負荷状況に応じて、重要な間違いから優先して補正処理を行うことができる。
本発明の一実施形態に係る携帯電話の構成を示す図である。 図1の携帯電話の構成を示すブロック図である。 本発明の処理結果示す例文である。 図1の携帯電話の動作を概念的に示す図である。 誤認識補正処理の手順を示すフローチャートである。 特徴語抽出処理の手順を示すフローチャートである。 単語リストの一例を示す図である。 特徴語リストの一例を示す図である。 補正判定処理の手順を示すフローチャートである。 音素列変換処理の結果の一例である。 本発明の一実施形態に係るテキスト処理装置の処理手順を示すフローチャートである。 本発明の一実施形態に係るシステムの構成を示す図である。 図12の携帯電話の構成を示す図である。 図13のサーバの構成を示す図である。 本発明の一実施形態に係るテキスト処理装置の処理手順を示すフローチャートである。
 以下、本発明の第一の実施形態に係る音声認識方法について図面を参照して説明する。
 本発明のテキスト補正方法が実施される、携帯電話10は、図1に示すように、マイク101と、メインメモリ102と、CPU103と、表示部104と、二次記憶装置105と、から構成される。そして、これらは、内部バス105に繋がれている。
 二次記憶装置105には、音声認識プログラム107、計算機負荷取得プログラム108、誤認識補正プログラム109、単語リスト作成プログラム112、特徴語抽出プログラム115、文書DB作成プログラム118、が記憶されており、これらは、必要に応じてメインメモリ102にロードされ、CPU103がこれらのプログラムに従って動作することで、後述する誤認識補正処理が実行される。
 誤認識補正プログラム109は、さらに、音素列変換プログラム110、補正判定プログラム111、の部分プログラムからなる。
 単語リスト作成プログラム112は、さらに、形態素解析プログラム113、頻度算出プログラム114の部分プログラムからなる。
 特徴語抽出プログラム115は、さらに、類似文書検索プログラム116、単語特徴度算出プログラム117、の部分プログラムからなる。
 二次記憶装置105には、さらに、文書DB119と言語モデル120が記憶されている。文書DB119は、複数のテキスト文書について、そのテキスト文書中の各単語の出現頻度を表したテーブルが、それぞれのテキスト文書毎に管理したテーブルである。複数のテキスト文書とは、例えば、様々な話題についての会話文、辞書の各単語の説明文、電子メールの送受信文などである。言語モデル120は、音声認識プログラム107によって、音声認識に利用される辞書データである。
 図2は、本実施形態の携帯電話10による誤認識補正処理の動作を概念的に示す図である。
 マイク101から入力された人の音声は、音声認識処理により、認識文212に変換される。この認識文212には誤認識が含まれるものと考える。
 単語リスト作成処理により、認識文212中に含まれる各単語の頻度を算出し、単語リスト213を作成する。作成した単語リスト213から、特徴語抽出処理により、特徴語リスト215を作成する。
 補正判定処理により、作成した特徴語リスト215と元の単語リスト213の類似度を比較することにより、補正文216を生成し、表示部104を通じて利用者に表示する。
 音声認識処理、単語リスト作成処理、特徴語抽出処理、補正判定処理は、具体的には、それぞれ、CPU103の機能部である音声認識部202、単語リスト作成部203、特徴語抽出部206、誤認識補正部209により実行される。
 図3、図4は、本実施形態の誤認識補正処理の実例を表す概念図である。本例では、人の発話文に対して、音声認識処理によって出力された認識文212には、誤りとして、「植樹」「校歌」の二つの単語が含まれる。この認識文212に含まれる単語の集合を集合Wとする。認識文212に対して、特徴語抽出処理によって抽出された特徴語の集合が特徴語リスト215である。これを集合Kとする。集合W中の単語のうち、集合Kに含まれない単語は、この文脈に即さない単語(以下、特異語と呼ぶ)であると判断し、誤りの可能性があると判断する。特異語と判断された各単語に対して、集合Kに含まれる単語ひとつひとつと、類似度を比較し、類似度が高いと判断された単語を、特異語に対する修正候補とする。本例では、前述の「植樹」「校歌」に対して、「食事」「高価」という修正候補が選出され、補正文216が出力される。
 以下、携帯電話10で実行される上記各処理の詳細について説明する。図5は、誤認識補正の手順を示すフローチャートである。
 音声認識部202は、マイク101から入力された音声から、音声認識を実施し、言語モデル120に含まれる各単語から、認識文212を生成する(ステップS501)。単語リスト作成部203の形態素解析部204が、認識文212を単語に分解し、そののち頻度算出作成部205が、認識文212に含まれる各単語の頻度を計数し、単語リスト213を作成する(ステップS502)。図7に単語リスト213の実例を示す。
 次に、特徴語抽出部206は、単語リスト213と文書DB119中の各文書の単語リスト213から、特徴語リスト215を生成する(ステップS503)。図8に特徴語リスト215の実例を示す。ステップS503の処理の詳細は後述する。抽出された特徴語リスト215は、認識文212の話題に即した特徴的な単語のリストが、特徴度の高い順に並んだデータである。
 続いて、誤認識補正部209が単語リスト213のそれぞれのエントリに対して処理を行う(ステップS504からステップS515)。誤認識補正部209は、単語リスト213のそれぞれのエントリについて、特徴語リスト215の中に同一の単語があるかをチェックし、あれば本単語を特異語と判断せず、ステップS505にて、次のエントリの処理に移行する(ステップS506のYes)。特徴語リスト215にない場合(ステップS506のNo)は、ステップS507以降の補正判定処理に移行する。
 計算機負荷取得部201から、計算機の現在の負荷を取得し、負荷に応じて、後述する特徴語リストとの比較数m’を決定し(ステップS507)、誤認識補正部209の補正判定部211が、特徴語リスト215の上位m’個について、特徴度の高い順に、類似度を比較していく(ステップS508からステップS514)。
 補正判定部211は、WiとKjの類似度を比較し、補正候補とするかどうかの判定値を算出する(ステップS511)。ここで、Wiとは、単語リスト213中のi番目の単語、Kjとは、特徴語リスト215のj番目の単語を表す。ステップS511の詳細については、後述する。
 ステップS511において算出された判定値が閾値を上回った場合(ステップS512のYes)、誤認識であると判断し、KjをWiに対する誤認識補正候補であると記憶する(ステップS513)。閾値を下回った場合は(ステップS512のNo)、KjはWiの補正候補ではないと判断し、次の特徴語との処理に戻る(ステップS514)。m’個すべての特徴語と比較し終わった場合は(ステップS509のYes)、ステップS510でiを加算した後、ステップS505に戻り、次の入力単語の処理に映る(ステップS505)。全ての認識文の単語リストの処理を終えた場合は(ステップS505のYes)、単語リスト213中の単語のうち、ステップS513において補正候補が発見された単語について、認識文212の該当する単語を、補正候補の単語に置き換えて出力する(ステップS515)。このことき、補正候補が複数存在する場合は、ステップS511における類似度が最も高いと判断された補正候補を採用する。
 図6は、ステップS503の特徴語抽出処理の手順を示すフローチャートである。
 特徴語抽出部206の類似文書検索部207は、認識文212から作成した単語リスト213と、文書DB119に格納されている各文書の単語リスト213との間で、ベクトルの内積演算を行う(ステップS601)。ここで、ベクトルの各要素は、各単語の出現頻度とする。したがって、ベクトルの次元数とは異なり単語数である。そして、内積値の小さいものから順に一定数(仮にαとする)を、認識文212に対する類似文書214として抽出する(ステップS602)。
 単語特徴度算出部208は、抽出した類似文書214の各文書に対して、tf-idfと呼ばれる方法によって、出現する各単語に対する特徴度を算出する(ステップS603)。tf-idfは単語の特徴度を計算する方法として広く利用されている計算法である。文書dでの単語wの出現頻度をtf、全文書中(本例では文書DB109の全ての文書)で、出現する文書の数をdfとしたとき、単語wの文書dにおけるtf-idf値は、本実施例では、次の計算式で算出する。ただし、特徴度を算出する方法の一例であり、これに限らない。
 単語wのtf-idf値= tf / idf
そして、算出した各単語のif-idf値に対して、抽出した類似文書214間での平均をとる(ステップS604)。そして、その平均値の高いものから順にm個を、特徴語リスト215として生成する(ステップS605)。
 図9は、ステップS511の補正判定処理の手順を示すフローチャートである。
まず、誤認識補正部209の音素列変換部210は、単語Wiと単語Kjをカナに変換したのち、音素列表記に変換する(ステップS901)。図10に、Wi=「植樹」、Kj=「食事」それぞれについての音素列表記への変換例を示す。
 次に、それぞれのローマ字表記の間の編集距離を算出する(ステップS902)。編集距離とは、ワードAに対して、挿入・削除・置換えを何回行うことでワードBに変更できるかを算出した値である。なお、置き換えの重みを増やすなど、挿入・削除・置換えの重みを変える方法もある。このようにして算出された値が編集距離であり、ワードAとワードBとの間の類似度の指標の一つとなる(値が小さい方が類似度が高いと判断)。
 なお、本実施例では、Wi、Kjを音素列に変更したが、これは、本発明の適用分野によって変更可能である。別の例として、文字入力におけるローマ字変換に変換する方法が考えられる。
 次に、認識文212の単語リスト213に出現するKjの回数tを算出する(ステップS903)、最後に、編集距離と出現回数から、最終的な判定値を算出する。たとえば、以下のような式で算出する。Kjが認識文212中で現れている回数が多いほど、類似度が高いと判断する例である。すなわち、補正判定の対象以外の部分で、出現している場合は、その補正候補の類似度を高める方法である。
  判定値 = (編集距離 / (出現回数+1))
 また、別の算出方法として、Kjが言語モデル120に含まれる単語であるかどうかによって、重みを変える方法も本発明に含まれる。すなわち、言語モデル120にない単語は、認識文212に現れることがないため、補正候補とする確率を上げる方法である。
 また、Kjの特徴度を、重みとして利用する方法も本発明に含まれる。Kjの特徴度が高い、すなわち、重要度が高い単語は、補正候補とする確率を上げる方法である。
 ここで例示した判定値算出処理は、一例であり、単語間の置き換えの判定を行う方法であれば、方法は問わない。
 第一の実施の形態によるテキスト補正方法では、認識文の全ての単語に対して、一度だけ補正用の言語モデルの検索を行い、あらかじめ補正候補である特徴語のリストを抽出しておくことで、効率的に認識文の全単語の補正判定処理を実施できる。
 以下、本発明の第二の実施形態に係る音声認識方法について図面を参照して説明する。二の実施の形態では、発話音声に対する音声認識処理をリアルタイムに実施しながら、誤認識の補正処理を同時並行して行う音声認識方法の例を示す。なお、実施の形態1と同様の処理については説明を省略する。図8のフローチャートを用いて、補正処理の詳細を説明する。
 本実施例における補正処理では、音声認識を実施するタスクと補正処理を行うための特徴語抽出を実施するタスクが並行して動作する。音声認識を行うタスクは、音声入力がある間(ステップS1101のYes)、音声認識処理を繰り返し実施し、逐次認識した認識単語1101を出力する(第一の実施の形態のステップS501と同様)。次に、認識単語1101に対して誤認識判定処理を実施する(第一の実施の形態のステップS504~ステップS514と同様)。誤認識判定の結果により、誤った単語であると判断された場合は、補正候補の単語を認識文1102に追加する。誤っていないと判断された場合は、もとの認識単語1101を、認識文1102に追加する。
 一方、特徴語抽出を行うタスクは、認識タスクが動作している間、必要に応じて、特徴語の抽出処理を行う(ステップS1104のNo)。まず、特徴語抽出要否判定を行う。ここでは、特徴語の抽出を行う処理を行うタイミングを決定する。判定基準として、前回判定してから一定時間経過しているかどうか、認識文に含まれる単語が一定数以上増えたか、計算機のCPU負荷が一定以下か、といった例がある(ステップS1105)。特徴語抽出が必要と判断した場合は(ステップS1106のYes)、認識文212から、特徴語リスト215の抽出処理を行う(第一の実施の形態のステップS503と同様)。特徴語が不要と判断した場合は(ステップS1106のNo)、処理を一定時間停止する(ステップS1107)。
 本実施の形態では、特徴語の抽出処理ステップS503を、ステップS501における認識単語1101出力におこなうのではなく、ステップS1105の判断基準に基づき、断続的に抽出しておいた特徴語リスト215を用いて、ステップS1102における誤認識の判定を行う。処理負荷の高い特徴語抽出処理を、音声認識の単語認識の度に行わず、かつ、ステップS1103の誤認識補正は各単語に対して行うため、補正のための第二の認識モデルの検索(本例における文書DB119の検索)に必要な計算負荷を抑えつつ、第一の認識モデルによる認識結果の全単語に対する補正処理をリアルタイムに実施することが可能となる。
 以下、本発明の第三の実施形態に係る音声認識方法について図面を参照して説明する。
 図12、図13および図14は、実施の形態のシステム構成を表す図である。本実施の形態では、実施の形態1、2、で示した特徴語抽出処理をネットワークで結合された他の計算機で実施するシステムを示す。
 携帯電話10で作成した単語リスト213をサーバ20に送信し(ステップS1301、ステップS1302)、受信した単語リスト213に基づいてサーバは特徴語リスト215を抽出する(ステップS503)。サーバは抽出した特徴語リスト215を携帯電話に送信し(ステップS1303、ステップS1304)、携帯電話は、誤認識補正処理を行って補正文216を生成する(ステップS1102)。
 本例では、データ量および計算量が大きい処理をサーバ側で実施する例を示した。
 本発明によれば、誤りの含まれる認識文に対して、誤認識箇所の推定・補正候補提示を効率よく実行できるとともに、重要な誤りに対して優先的に補正処理を行うことが出来る。したがって、音声認識やPCにおける言語入力システム、音声コマンド認識などといった認識技術の補正全般に適用できるとともに、計算機資源の限られた携帯電話やナビゲーションシステムへの適用が容易になる。
 10…携帯電話、101…マイク、102…メインメモリ、103…CPU、104…表示部、105…内部バス、106…二次記憶装置、107…音声認識プログラム、109…誤認識補正プログラム、112…単語リスト作成プログラム、115…特徴語抽出プログラム、119…文書DB、120…言語モデル、116…シーン判定部、211…キーパッド、202…音声認識部、203…単語リスト作成部、206…特徴語抽出部、209…誤認識補正部、212…認識文、213…単語リスト、215…特徴語リスト、216…補正文

Claims (15)

  1.  テキストに含まれる誤り単語を、誤り補正部によって補正するテキスト補正装置であって、
     前記誤り補正部は、前記テキストと、別の単語の集合からなる語彙集合とを、
     それらに含まれる単語の出現頻度で比較して、前記テキストおよび語彙集合から特徴語の集合を抽出する特徴語抽出部を有し、
     前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度を算出し、
     前記テキストに含まれる単語に類似すると判定した、前記特徴語の集合に含まれる単語を、前記テキストに含まれる単語に対する補正候補の単語として出力することを特徴とするテキスト補正装置。
  2.  前記誤り補正部は、前記テキストに含まれる単語のうち、前記特徴語の集合に含まれない単語を特異語の集合として抽出する特異語抽出部を有し、前記特異語の集合の各単語に対して、類似度の算出と補正候補の出力を行う、
     ことを特徴とする請求項1に記載のテキスト補正装置。
  3.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語の特徴度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項1に記載のテキスト補正装置。
  4.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項1に記載のテキスト補正装置。
  5.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記テキストに含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項1に記載のテキスト補正装置。
  6.  前記テキストは、第一の認識語彙集合から生成されたテキストであって、前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記第一の認識語彙集合中に含まれるかどうかによって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項1に記載のテキスト補正装置。
  7.  非テキストデータを入力として第一の認識モデルをもつ認識部によって出力されたテキストに含まれる誤り単語を、第二の認識モデルをもつ誤り補正部によって誤り単語を補正する認識装置であって、
     前記認識部は、時系列の非テキストデータから前記第一の認識モデルによって、認識した認識単語から、時系列な認識単語の集合を生成し、
     前記誤り補正部は、前記認識単語の集合と、第二の認識モデルに含まれる語彙集合とを、それらに含まれる単語の出現頻度で比較して、前記認識単語の集合および前記語彙集合から、特徴語の集合を抽出する特徴語抽出部を有し、
     前記認識単語の集合と、前記特徴語の集合に含まれる単語との類似度を算出し、
     前記認識単語の集合に含まれる単語に類似すると判定した、前記特徴語の集合に含まれる単語を、前記認識単語の集合に含まれる単語に対する補正候補の単語として出力することを特徴とする認識装置。
  8.  前記誤り補正部は、前記テキストに含まれる単語のうち、前記特徴語の集合に含まれない単語を特異語の集合として抽出する特異語抽出部を有し、前記特異語の集合の各単語に対して、類似度の算出と補正候補の出力を行う、
     ことを特徴とする請求項7に記載の認識装置。
  9.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語の特徴度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項7に記載の認識装置。
  10.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項7に記載の認識装置。
  11.  前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記テキストに含まれる単語が、前記テキスト中に含まれる頻度によって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項7に記載の認識装置。
  12.  前記テキストは、第一の認識語彙集合から生成されたテキストであって、前記誤り補正部は、前記テキストに含まれる単語と、前記特徴語の集合に含まれる単語との類似度に加えて、前記特徴語の集合に含まれる単語が、前記第一の認識語彙集合中に含まれるかどうかによって、前記特徴語の集合に含まれる単語を、補正候補の単語として出力するかどうかを判定する、
     ことを特徴とする請求項7に記載の認識装置。
  13.  前記誤り補正部は、前記語彙集合から前記特徴語を抽出する頻度を変える、
     ことを特徴とする請求項7に記載の認識装置。
  14.  前記誤り補正部は、抽出の時間間隔に基づいて前記語彙集合から前記特徴語を抽出する頻度を変える、
     ことを特徴とする請求項7に記載の認識装置。
  15.  前記誤り補正部は、計算機の処理負荷状況に基づいて前記語彙集合から前記特徴語を抽出する頻度を変える、
     ことを特徴とする請求項7に記載の認識装置。
PCT/JP2011/003771 2010-07-06 2011-07-01 テキスト補正方法及び認識方法 WO2012004955A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010153537A JP2012018201A (ja) 2010-07-06 2010-07-06 テキスト補正方法及び認識方法
JP2010-153537 2010-07-06

Publications (1)

Publication Number Publication Date
WO2012004955A1 true WO2012004955A1 (ja) 2012-01-12

Family

ID=45440949

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003771 WO2012004955A1 (ja) 2010-07-06 2011-07-01 テキスト補正方法及び認識方法

Country Status (2)

Country Link
JP (1) JP2012018201A (ja)
WO (1) WO2012004955A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115646A (ja) * 2012-12-07 2014-06-26 Postech Academy - Industry Foundation 音声認識のエラー修正方法及び装置
TWI716822B (zh) * 2018-05-31 2021-01-21 開曼群島商創新先進技術有限公司 事務因果序的校正方法及裝置、電子設備

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095399A (ja) * 2014-11-14 2016-05-26 日本電信電話株式会社 音声認識結果整形装置、方法及びプログラム
JP6389795B2 (ja) * 2015-04-24 2018-09-12 日本電信電話株式会社 音声認識結果整形装置、方法及びプログラム
JP6830148B1 (ja) * 2019-12-12 2021-02-17 三菱電機インフォメーションシステムズ株式会社 修正候補特定装置、修正候補特定方法及び修正候補特定プログラム
CN112016305B (zh) * 2020-09-09 2023-03-28 平安科技(深圳)有限公司 文本纠错方法、装置、设备及存储介质
KR20220045839A (ko) 2020-10-06 2022-04-13 주식회사 케이티 음성 인식 서비스를 제공하는 방법, 장치 및 컴퓨터 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308094A (ja) * 2002-02-12 2003-10-31 Advanced Telecommunication Research Institute International 音声認識における認識誤り箇所の訂正方法
JP2004252775A (ja) * 2003-02-20 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> 単語抽出装置、単語抽出方法およびプログラム
JP2009210747A (ja) * 2008-03-04 2009-09-17 Nippon Hoso Kyokai <Nhk> 関連文書選択出力装置及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308094A (ja) * 2002-02-12 2003-10-31 Advanced Telecommunication Research Institute International 音声認識における認識誤り箇所の訂正方法
JP2004252775A (ja) * 2003-02-20 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> 単語抽出装置、単語抽出方法およびプログラム
JP2009210747A (ja) * 2008-03-04 2009-09-17 Nippon Hoso Kyokai <Nhk> 関連文書選択出力装置及びそのプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JUNTA MIZUNO ET AL.: "A Similar Episode Retrieval Method for Podcast", IPSJ SIG NOTES, vol. 2008, no. 46, 15 May 2008 (2008-05-15), pages 31 - 38 *
TOMOHIRO YASUDA ET AL.: "Renso Kensaku Engine no Scalability Oyobi Shogai Taisei no Kojo", DAI 69 KAI (HEISEI 19 NEN) ZENKOKU TAIKAI KOEN RONBUNSHU (1), 6 March 2007 (2007-03-06), pages 1-383 - 1-384 *
YUSUKE ITO ET AL.: "Improving recognition performance of spoken documents using similar documents on the Internet", IEICE TECHNICAL REPORT, vol. 105, no. 495, 14 December 2005 (2005-12-14), pages 49 - 54 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115646A (ja) * 2012-12-07 2014-06-26 Postech Academy - Industry Foundation 音声認識のエラー修正方法及び装置
US9318102B2 (en) 2012-12-07 2016-04-19 Postech Academy—Industry Foundation Method and apparatus for correcting speech recognition error
TWI716822B (zh) * 2018-05-31 2021-01-21 開曼群島商創新先進技術有限公司 事務因果序的校正方法及裝置、電子設備

Also Published As

Publication number Publication date
JP2012018201A (ja) 2012-01-26

Similar Documents

Publication Publication Date Title
US10037758B2 (en) Device and method for understanding user intent
US10210862B1 (en) Lattice decoding and result confirmation using recurrent neural networks
JP6923332B2 (ja) 自動通訳方法及び装置
EP2862164B1 (en) Multiple pass automatic speech recognition
US10672391B2 (en) Improving automatic speech recognition of multilingual named entities
EP2702586B1 (en) Cross-lingual initialization of language models
EP2609588B1 (en) Speech recognition using language modelling
US9292487B1 (en) Discriminative language model pruning
US6877001B2 (en) Method and system for retrieving documents with spoken queries
WO2012004955A1 (ja) テキスト補正方法及び認識方法
US11093110B1 (en) Messaging feedback mechanism
US9170994B2 (en) Machine translation apparatus, method and computer readable medium
KR20190021338A (ko) 후속 음성 쿼리 예측
US10152298B1 (en) Confidence estimation based on frequency
US8356065B2 (en) Similar text search method, similar text search system, and similar text search program
US20140149119A1 (en) Speech transcription including written text
WO2016008128A1 (en) Speech recognition using foreign word grammar
KR20180062003A (ko) 음성 인식 오류 교정 방법
US20150178274A1 (en) Speech translation apparatus and speech translation method
WO2020156342A1 (zh) 语音识别方法、装置、电子设备及存储介质
KR20120052591A (ko) 연속어 음성인식 시스템에서 오류수정 장치 및 방법
JP4826719B2 (ja) 音声認識システム、音声認識方法、および音声認識プログラム
JP2013050605A (ja) 言語モデル切替装置およびそのプログラム
KR20110119478A (ko) 음성 인식 장치 및 음성 인식 방법
Ikegami et al. High performance personal adaptation speech recognition framework by incremental learning with plural language models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11803295

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11803295

Country of ref document: EP

Kind code of ref document: A1