JP2006267319A - Support system for converting voice to writing, method thereof, and system for determination of correction part - Google Patents

Support system for converting voice to writing, method thereof, and system for determination of correction part Download PDF

Info

Publication number
JP2006267319A
JP2006267319A JP2005083055A JP2005083055A JP2006267319A JP 2006267319 A JP2006267319 A JP 2006267319A JP 2005083055 A JP2005083055 A JP 2005083055A JP 2005083055 A JP2005083055 A JP 2005083055A JP 2006267319 A JP2006267319 A JP 2006267319A
Authority
JP
Japan
Prior art keywords
character string
correction
recognition result
speech
correct character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005083055A
Other languages
Japanese (ja)
Other versions
JP4784120B2 (en
Inventor
Riyouko Imai
亮子 今井
Kenichi Iso
健一 磯
Takafumi Koshinaka
孝文 越仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005083055A priority Critical patent/JP4784120B2/en
Publication of JP2006267319A publication Critical patent/JP2006267319A/en
Application granted granted Critical
Publication of JP4784120B2 publication Critical patent/JP4784120B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible to correctly and efficiently correct an erroneous recognition part of a voice recognition result in converting voice to writing using voice recognition. <P>SOLUTION: A display reproducing part 141 displays a recognition result 133 of a voice recognition device 102 on a display device 104 and also reproduces an original voice signal to output it from a loudspeaker 105. Discovering the erroneous recognition part of the voice recognition result, a user inputs a right answer character string for correcting the error from a keyboard 106. A correction part determining means 143 retrieves a character string part similar to the right answer character string in pronunciation inputted through the right answer input means 142 from the voice recognition result as a correction part. A recognition result correction means 144 replaces the determined correction part with the right answer character string. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は音声書き起こし支援装置およびその方法に関し、特に音声を認識し、その結果得られる認識結果に含まれる認識誤りをキーボードから入力された正解文字列で修正することによりテキスト化を行う音声書き起こし支援装置およびその方法に関する。   The present invention relates to a speech transcription support apparatus and method thereof, and more particularly to speech writing for recognizing speech and converting it into text by correcting a recognition error included in a recognition result obtained as a result with a correct character string input from a keyboard. The present invention relates to a wake-up support apparatus and method.

近年の音声認識技術の向上により音声認識精度が格段に向上しているものの、周囲の雑音などの影響により誤認識を完全になくすことはできない。このため、音声認識結果を利用した書き起こし作業においては、音声認識結果に含まれる誤認識部分を修正する作業が必要になる。   Although the speech recognition accuracy has been remarkably improved due to recent improvements in speech recognition technology, it is not possible to completely eliminate misrecognition due to the influence of ambient noise and the like. For this reason, in the transcription work using the speech recognition result, it is necessary to correct the misrecognized portion included in the speech recognition result.

音声認識結果を修正する従来技術の一例が特許文献1に記載されている。この従来技術では、第1の入力音声の認識結果を訂正する際に、利用者は同じフレーズを第2の音声として発声する。例えば、第1の入力音声「チケットを買いたいのですか」に対して「ラケットがカウントなのです」と認識された際、ユーザは同じフレーズ「チケットを買いたいのですか」を繰り返す。装置側では、第1と第2の音声の間で特徴情報の類似する部分と類似しない部分とを検出すると同時に、強調して発声された部分を検出し、類似部分については第2入力音声の認識候補から第1入力音声の認識結果を除外し、第1入力音声と非類似部分で強調されて発声された第2入力音声部分はこの第2入力音声の第1認識候補を採用する。この結果、例えば上記第2入力音声で、「買いたい」の部分を話者が強調して発声した場合に、第2入力音声の認識結果が「チケットを買いたいのですか」になると説明されている。   An example of a conventional technique for correcting a speech recognition result is described in Patent Document 1. In this prior art, when correcting the recognition result of the first input voice, the user utters the same phrase as the second voice. For example, when it is recognized that “the racket is a count” with respect to the first input voice “Do you want to buy a ticket”, the user repeats the same phrase “Do you want to buy a ticket”? On the device side, between the first and second voices, a similar part of feature information and a part that is not similar are detected, and at the same time, an emphasized utterance part is detected. The recognition result of the first input speech is excluded from the recognition candidates, and the second input speech portion that is uttered by emphasizing the dissimilar portion with the first input speech adopts the first recognition candidate of the second input speech. As a result, for example, when the speaker emphasizes the part of “I want to buy” in the second input voice, the recognition result of the second input voice is explained as “Do you want to buy a ticket?” ing.

音声認識結果を修正する他の従来技術が特許文献2に記載されている。この従来技術では、第1の入力音声の認識結果に誤認識部分がある場合、利用者はその誤認識部分と置換するための1語または複数語を第2の入力音声として発声する。装置側では、第1の入力音声の認識結果のそれぞれ異なる箇所を第2の入力音声の認識結果の1語または複数語で網羅的に置換した複数の修正認識結果の中から、音声認識辞書に記載されているものだけを利用者に提示してその一つを選択させることで、誤認識部分の修正を行う。   Another conventional technique for correcting a speech recognition result is described in Patent Document 2. In this prior art, when there is a misrecognized part in the recognition result of the first input voice, the user utters one or a plurality of words to replace the misrecognized part as the second input voice. On the device side, a speech recognition dictionary is selected from a plurality of corrected recognition results obtained by exhaustively replacing different portions of the recognition result of the first input speech with one or more words of the recognition result of the second input speech. The misrecognized portion is corrected by presenting only the listed items to the user and selecting one of them.

音声認識結果を修正する別の従来技術が特許文献3に記載されている。この従来技術では、音声認識誤りの発見と修正の作業を複数の修正端末で実施する。個々の修正端末の利用者は、音声認識の誤り部分をタッチパネルをタッチすることで指摘し、キーボードから正解文字列を入力して修正する。
特開2003-316386号公報 特開2001−92493号公報 特開2004−226910号公報
Another conventional technique for correcting a speech recognition result is described in Patent Document 3. In this prior art, a speech recognition error is found and corrected by a plurality of correction terminals. The user of each correction terminal points out an erroneous part of speech recognition by touching the touch panel, and corrects it by inputting a correct character string from the keyboard.
JP 2003-316386 A JP 2001-92493 A JP 2004-226910 A

音声認識結果の誤り部分を利用者が修正する作業を支援する技術として前述したように各種の技術が提案されているが、特許文献1および特許文献2に見られるように修正を音声入力で行う方法の場合、正しく修正するのが困難であるという課題がある。その理由は、修正する文字列の正解を音声入力で与えているため、たとえ強調して発声しても誤認識によって正解文字列を正しく入力できない場合があること、および認識辞書にない単語(列)はそもそも音声認識では入力できないからである。   As described above, various technologies have been proposed as a technology for assisting the user in correcting the error part of the speech recognition result. However, as seen in Patent Document 1 and Patent Document 2, correction is performed by voice input. In the case of a method, there exists a subject that it is difficult to correct correctly. The reason for this is that the correct character string to be corrected is given by voice input, so even if it is emphasized and spoken, the correct character string may not be correctly input due to misrecognition, and a word (column that is not in the recognition dictionary) This is because voice recognition cannot be input in the first place.

このため正確な修正を行う場合には、特許文献3に見られるようにキーボードから正解文字列を入力せざるを得ないが、その場合、誤認識箇所の指定と正しい文字列の入力の双方を行う必要があり、手間がかかるという課題がある。   For this reason, when correct correction is performed, the correct character string must be input from the keyboard as shown in Patent Document 3, but in that case, both the designation of the misrecognized portion and the input of the correct character string must be performed. There is a problem that it needs to be done and takes time and effort.

本発明はこのような事情に鑑みて提案されたものであり、その目的は、音声認識結果の誤認識部分を正しく且つ効率良く修正することのできる音声書き起こし支援装置およびその方法を提供することにある。   The present invention has been proposed in view of such circumstances, and an object of the present invention is to provide a speech transcription support apparatus and method that can correct a misrecognition portion of a speech recognition result correctly and efficiently. It is in.

本発明の第1の音声書き起こし支援装置は、音声信号に対して音声認識処理を施して得られる音声認識結果を記憶する記憶手段と、前記音声認識結果の認識誤り部分を修正するための正解文字列をキーボードから入力する正解入力手段と、前記音声認識結果のうち前記正解文字列と発音が類似する文字列部分を修正箇所として検索する修正箇所決定手段と、前記決定された修正箇所を前記正解文字列で置換する認識結果修正手段とを備えたことを特徴とする。   The first speech transcription support device according to the present invention includes a storage means for storing a speech recognition result obtained by subjecting a speech signal to speech recognition processing, and a correct answer for correcting a recognition error portion of the speech recognition result. Correct input means for inputting a character string from a keyboard; correction location determination means for searching a character string portion whose pronunciation is similar to the correct character string as a correction location in the speech recognition result; and the determined correction location And a recognition result correcting means for replacing with a correct character string.

本発明の第2の音声書き起こし支援装置は、第1の音声書き起こし支援装置において、前記修正箇所決定手段は、前記正解文字列から作成した音声データと前記音声認識結果に対応する音声データとの間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする。   According to a second speech transcription support device of the present invention, in the first speech transcription support device, the correction location determination means includes speech data created from the correct character string and speech data corresponding to the speech recognition result. The character string portion whose pronunciation is similar to that of the correct character string is searched for by matching between the character strings.

本発明の第3の音声書き起こし支援装置は、第2の音声書き起こし支援装置において、前記正解文字列の音声データとして前記正解文字列から生成した音声標準パタンを使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する前記音声信号の分析結果を使用することを特徴とする。   According to a third speech transcription support device of the present invention, in the second speech transcription support device, a speech standard pattern generated from the correct character string is used as speech data of the correct character string, and the speech recognition result The voice signal analysis result corresponding to the voice recognition result is used as voice data.

本発明の第4の音声書き起こし支援装置は、第2の音声書き起こし支援装置において、前記正解文字列の音声データとして前記正解文字列から音声合成で生成した音声信号を使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する音声信号を使用することを特徴とする。   According to a fourth speech transcription support device of the present invention, in the second speech transcription support device, a speech signal generated by speech synthesis from the correct character string is used as speech data of the correct character string, and the speech recognition is performed. A voice signal corresponding to the voice recognition result is used as the resulting voice data.

本発明の第5の音声書き起こし支援装置は、第1の音声書き起こし支援装置において、前記修正箇所決定手段は、前記正解文字列から作成した音素列または音節列である文字列と前記音声認識結果から作成した音素列または音節列である文字列との間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする。   According to a fifth speech transcription support device of the present invention, in the first speech transcription support device, the correction location determination means includes a character string that is a phoneme string or a syllable string created from the correct character string and the voice recognition. A character string portion similar in pronunciation to the correct answer character string is searched for by matching with a character string that is a phoneme string or a syllable string created from the result.

本発明の第6の音声書き起こし支援装置は、第1の音声書き起こし支援装置において、前記修正箇所決定手段は、前記正解文字列と発音が類似する文字列部分が前記音声認識結果に存在しない場合に、単語の接続制約を記述した言語モデルを用いて前記正解文字列が挿入される確率の高い位置を挿入位置として検索するものであり、前記認識結果修正手段は前記決定された挿入位置に前記正解文字列を挿入するものであることを特徴とする。   According to a sixth speech transcription support device of the present invention, in the first speech transcription support device, the correction location determination means does not include a character string portion whose pronunciation is similar to the correct character string in the speech recognition result. In this case, a position with a high probability that the correct character string is inserted is searched as an insertion position using a language model in which word connection constraints are described, and the recognition result correcting means is set at the determined insertion position. The correct character string is inserted.

本発明の第7の音声書き起こし支援装置は、第1の音声書き起こし支援装置において、前記修正箇所決定手段は、キーボード入力された正解文字列の順序に従って修正箇所の検索を行い、前記認識結果修正手段で修正された修正位置に基づき検索範囲を逐次狭めるものであることを特徴とする。   According to a seventh speech transcription support device of the present invention, in the first speech transcription support device, the correction location determination means searches for a correction location according to the order of correct character strings input from a keyboard, and the recognition result The search range is successively narrowed based on the correction position corrected by the correction means.

本発明の音声書き起こし支援方法は、表示再生部が、音声信号に対して音声認識処理を施して得られる音声認識結果を表示装置に表示し、正解入力手段が、前記音声認識結果の認識誤り部分を修正するための正解文字列をキーボードから入力し、修正箇所決定手段が、前記音声認識結果のうち前記正解文字列と発音が類似する文字列部分を修正箇所として検索し、認識結果修正手段が、前記決定された修正箇所を前記正解文字列で置換することを特徴とする。   In the speech transcription support method of the present invention, the display / playback unit displays a speech recognition result obtained by performing speech recognition processing on the speech signal on the display device, and the correct input means recognizes the recognition error of the speech recognition result. The correct character string for correcting the part is input from the keyboard, and the correction part determining means searches for the character string part whose pronunciation is similar to the correct character string in the voice recognition result as the correction part, and the recognition result correcting means Is characterized in that the determined correction portion is replaced with the correct character string.

本発明の第1の修正箇所決定装置は、音声信号に対して音声認識処理を施して得られる音声認識結果の認識誤り部分を修正するためにキーボードから入力された正解文字列を音素列に変換して記憶部に記憶する音素列変換手段と、前記記憶部から前記正解文字列の音素列を読み出し、各音素毎の標準パタンを記憶する標準パタン記憶部を検索して前記音素列を音声の標準パタンに変換し、前記記憶部に記憶する音素標準パタン変換手段と、前記音声認識結果に対応する前記音声信号の分析結果上の修正箇所となる候補を網羅的に求め、各修正箇所候補の位置情報を前記記憶部に記憶する位置決定手段と、前記記憶部から前記正解文字列の標準パタン、前記分析結果および前記各修正箇所候補の位置情報を読み出し、前記正解文字列の標準パタンが修正箇所候補の位置情報で特定される前記分析結果上の分析結果部分を出力する確率を各修正箇所候補毎に計算し、前記記憶部に記憶する確率計算手段と、前記記憶部から各修正箇所候補毎に計算された前記確率を読み出して比較し、前記複数の修正箇所候補の中から修正箇所を選択して出力する選択手段とを備えたことを特徴とする。   The first correction location determination apparatus of the present invention converts a correct character string input from a keyboard into a phoneme string in order to correct a recognition error part of a voice recognition result obtained by performing voice recognition processing on a voice signal. A phoneme string conversion means for storing in the storage unit, and reading out the phoneme string of the correct character string from the storage unit, searching the standard pattern storage unit for storing the standard pattern for each phoneme, A phoneme standard pattern conversion means for converting to a standard pattern and storing it in the storage unit and a candidate for a correction location on the analysis result of the speech signal corresponding to the speech recognition result are comprehensively determined. Position determining means for storing position information in the storage unit; and reading out the standard pattern of the correct character string, the analysis result, and the position information of each correction location candidate from the storage unit, and the standard pattern of the correct character string Calculates the probability of outputting the analysis result part on the analysis result specified by the position information of the correction location candidate for each correction location candidate, and stores the probability calculation means for storing in the storage unit, and each correction from the storage unit And selecting means for reading out and comparing the probabilities calculated for each location candidate and selecting and outputting a correction location from the plurality of correction location candidates.

本発明の第2の修正箇所決定装置は、音声信号に対して音声認識処理を施して得られる音声認識結果の認識誤り部分を修正するためにキーボードから入力された正解文字列および前記音声認識結果の文字列のそれぞれを音素列または音節列に変換して記憶部に記憶する音素列変換手段と、前記記憶部から前記音声認識結果の音素列または音節列を読み出し、その音素列または音節列上の修正箇所となる候補を網羅的に求め、各修正箇所候補の位置情報を前記記憶部に記憶する位置決定手段と、前記記憶部から前記正解文字列および前記音声認識結果の音素列または音節列と前記各修正箇所候補の位置情報とを読み出し、修正箇所候補の位置情報で特定される前記音声認識結果の音素列または音節列上の部分と前記正解文字列の音素列または音節列との類似度を計算し、前記記憶部に記憶する類似度計算手段と、前記記憶部から各修正箇所候補毎に計算された前記類似度を読み出して比較し、前記複数の修正箇所候補の中から修正箇所を選択して出力する選択手段とを備えたことを特徴とする。   The second correction location determination apparatus of the present invention provides a correct character string input from a keyboard for correcting a recognition error portion of a speech recognition result obtained by performing speech recognition processing on a speech signal, and the speech recognition result. A phoneme string conversion means for converting each of the character strings into a phoneme string or a syllable string and storing it in the storage unit; and reading out the phoneme string or syllable string of the speech recognition result from the storage unit; A position determination unit that comprehensively obtains candidates for correction points and stores the position information of each correction point candidate in the storage unit, and the correct character string and the phoneme string or syllable string of the speech recognition result from the storage unit And the position information of each correction part candidate, and the phoneme string or syllable string part of the speech recognition result specified by the position information of the correction part candidate and the phoneme string or sound of the correct character string The similarity calculation means for calculating the similarity to the column and storing it in the storage unit, and reading out and comparing the similarity calculated for each correction location candidate from the storage unit, the plurality of correction location candidates And selecting means for selecting and outputting a correction portion from the inside.

『作用』
音声認識装置の認識結果に含まれる誤認識部分は、正解と全くかけ離れた内容になることは少なく、正解と似かよった内容になる。すなわち、誤認識部分と正解とは発音的に似ているケースが多い。本発明はこの点に着目し、音声認識結果のうち正解文字列と発音が類似する文字列部分を修正箇所として検索する。正解文字列と発音的に類似する認識結果部分の検出は、音声信号的な類似検出や音韻的な類似検出によって可能である。前者の音声信号的な類似検出は、正解文字列から作成した音声標準パタンや音声波形信号などの音声信号と、音声認識結果が得られる過程で音声認識装置で得られる分析結果や元の音声信号とを比較することで可能である。また、後者の音韻的な類似検出は、正解文字列および音声認識結果の文字列をそれぞれ音素列や音節列に変換して比較することで可能である。
"Action"
The misrecognized portion included in the recognition result of the speech recognition apparatus is unlikely to be completely different from the correct answer, and is similar to the correct answer. That is, the misrecognized part and the correct answer are often similar in pronunciation. The present invention pays attention to this point, and retrieves a character string portion whose pronunciation is similar to that of the correct character string as a corrected portion in the speech recognition result. The recognition result portion that is phonetically similar to the correct character string can be detected by voice signal similarity detection or phonological similarity detection. The former similarity detection of speech signals is based on speech signals such as speech standard patterns and speech waveform signals created from correct character strings, analysis results obtained by speech recognition devices in the process of obtaining speech recognition results, and original speech signals. Is possible by comparing The latter phonological similarity detection can be performed by converting the correct character string and the character string of the speech recognition result into a phoneme string and a syllable string, respectively, and comparing them.

本発明によれば、音声認識結果を利用した書き起こし作業において誤認識部分の正しい文字列をキーボード入力すると、誤認識部分が自動的に検出され、正しい文字列に修正できるため、作業効率を向上させることができる。   According to the present invention, when a correct character string of a misrecognized part is input with a keyboard in a transcription work using a speech recognition result, the misrecognized part is automatically detected and can be corrected to a correct character string, thereby improving work efficiency. Can be made.

次に本発明の第1の実施の形態について図面を参照して詳細に説明する。   Next, a first embodiment of the present invention will be described in detail with reference to the drawings.

図1を参照すると、本発明の第1の実施の形態にかかる音声書き起こし支援装置は、音声101に対して音声認識処理を行う音声認識装置102と、この音声認識装置102の音声認識結果などを記憶する記憶装置103と、音声認識結果などを利用者に表示する表示装置104と、音声認識対象となった音声101を利用者による確認のために再生して出力するスピーカ105と、音声認識結果に含まれる誤り箇所を修正するために正解の文字列を入力するキーボード106と、これらに接続された処理装置107とから構成されている。   Referring to FIG. 1, the speech transcription support device according to the first exemplary embodiment of the present invention includes a speech recognition device 102 that performs speech recognition processing on speech 101, a speech recognition result of the speech recognition device 102, and the like. A display device 104 for displaying a voice recognition result or the like to a user, a speaker 105 for reproducing and outputting the voice 101 as a voice recognition target for confirmation by the user, and voice recognition In order to correct an error part included in the result, the keyboard 106 for inputting a correct character string and a processing device 107 connected thereto are configured.

音声認識装置102は、音声入力手段111、分析手段112および照合手段113を備え、また、辞書121、言語モデル122および音響モデル123を記憶する記憶装置124を備えている。辞書121には、認識対象の単語およびその発音が登録されている。言語モデル122には、認識対象の単語間の接続制約が記述されている。言語モデルの例としては、音声認識に広く用いられている単語N-gramモデルがある。音響モデル123には、認識単位の音響的特徴が記述されている。音響モデルの例としては、音声認識に広く用いられているHMM(Hidden Markov Model)がある。   The voice recognition device 102 includes a voice input unit 111, an analysis unit 112, and a collation unit 113, and a storage device 124 that stores a dictionary 121, a language model 122, and an acoustic model 123. In the dictionary 121, words to be recognized and their pronunciation are registered. The language model 122 describes connection restrictions between words to be recognized. An example of a language model is a word N-gram model that is widely used for speech recognition. The acoustic model 123 describes acoustic features of recognition units. As an example of the acoustic model, there is an HMM (Hidden Markov Model) widely used for speech recognition.

音声入力手段111は、マイクロフォンなどを用いて音声101を取り込み、分析手段112による分析が行えるような形に処理した音声信号(音声波形のディジタルデータ)131を記憶装置103に記憶する。   The voice input unit 111 captures the voice 101 using a microphone or the like, and stores a voice signal (digital data of a voice waveform) 131 processed into a form that can be analyzed by the analysis unit 112 in the storage device 103.

分析手段112は、音声信号131を記憶装置103から入力し、音声信号131に対し分析処理を行って周波数スペクトルに関連した特徴の抽出を行う。具体的には、時間窓をかけ高速フーリエ変換のアルゴリズムを用いて離散フーリエ変換を行い、短時間スペクトルを求める。分析手段112で得られた分析結果132は、音声信号131のどの部分の分析結果であるかが明確にわかるように時刻データなどによって音声信号131と対応付けられて記憶装置103に記憶される。   The analysis unit 112 receives the audio signal 131 from the storage device 103 and performs an analysis process on the audio signal 131 to extract features related to the frequency spectrum. Specifically, a discrete Fourier transform is performed using a fast Fourier transform algorithm over a time window to obtain a short-time spectrum. The analysis result 132 obtained by the analysis unit 112 is stored in the storage device 103 in association with the audio signal 131 by time data or the like so that it can be clearly seen which part of the audio signal 131 is the analysis result.

照合手段113は、記憶装置124に記憶された辞書121、言語モデル122および音響モデル123を用いて、記憶装置103から入力した音声信号の分析結果132に対し、候補単語列との間で確率計算を行い、最も尤度の高かった単語列を認識結果として出力する。照合手段113で得られた認識結果133は、分析結果132と対応付けられて記憶装置103に記憶される。具体的には、個々の単語あるいは単語の構成要素である個々の音節または音素について、分析結果132との対応関係、すなわち、どの単語が分析結果のどの部分から出たものかを示す情報が付加されて記憶装置103に記憶される。   The matching unit 113 uses the dictionary 121, the language model 122, and the acoustic model 123 stored in the storage device 124 to calculate the probability between the speech signal analysis result 132 input from the storage device 103 and the candidate word string. And the word string having the highest likelihood is output as a recognition result. The recognition result 133 obtained by the collating unit 113 is stored in the storage device 103 in association with the analysis result 132. Specifically, for each word or individual syllable or phoneme that is a component of the word, information indicating the correspondence with the analysis result 132, that is, which part of the analysis result from which word is added. And stored in the storage device 103.

処理装置107は、記憶装置103に記憶された音声101の認識結果133に含まれる誤り箇所を利用者が発見し且つ修正するための装置であり、表示再生部141、正解入力手段142、修正箇所決定手段143および認識結果修正手段144を備えている。   The processing device 107 is a device for the user to find and correct an error location included in the recognition result 133 of the speech 101 stored in the storage device 103. The display device 141, correct input means 142, correction location Determination means 143 and recognition result correction means 144 are provided.

表示再生部141は、記憶装置103に記憶された認識結果133を表示装置104に表示する認識結果表示手段145と、記憶装置103に記憶された音声信号131を再生してスピーカ105から出力する音声再生手段146とを有する。   The display reproduction unit 141 reproduces the recognition result display unit 145 that displays the recognition result 133 stored in the storage device 103 on the display device 104 and the sound signal 131 stored in the storage device 103 and outputs the sound from the speaker 105. Reproduction means 146.

正解入力手段142は、誤認識を修正するための正解文字列をキーボード106から取り込む。   The correct answer input unit 142 takes in a correct character string for correcting erroneous recognition from the keyboard 106.

修正箇所決定手段143は、正解入力手段142により取り込まれた正解文字列と発音が似ている箇所を修正箇所として記憶装置103に記憶されている認識結果133から検索する。正解文字列と発音的に類似する認識結果部分の検索は、後述するように音声信号的な類似検出や音韻的な類似検出によって行われる。   The correction part determination unit 143 searches the recognition result 133 stored in the storage device 103 as a correction part for a part whose pronunciation is similar to the correct character string taken in by the correct input unit 142. A search for a recognition result portion that is phonetically similar to the correct character string is performed by speech signal similarity detection or phonological similarity detection, as will be described later.

認識結果修正手段144は、記憶装置103に記憶されている認識結果133を正解入力手段142により取り込まれた正解文字列と修正箇所決定手段143により決定された修正箇所とに基づいて自動的に修正するか、もしくは利用者に修正を促す。   The recognition result correction unit 144 automatically corrects the recognition result 133 stored in the storage device 103 based on the correct character string captured by the correct input unit 142 and the correction part determined by the correction part determination unit 143. Or prompt the user to make corrections.

処理装置107が表示装置104に表示する画面の一例を図2に示す。図2の画面において、再生ボタン201をオンすると、表示再生部141は、音声再生手段146により記憶装置103に記憶された音声信号131を読み出して再生し、スピーカ105から再生音声を出力すると同時に、この音声出力と同期して、認識結果表示手段145により、再生中の音声信号の認識結果133を認識結果表示欄202に表示する。再生ボタン201は停止ボタンを兼ねており、もう一度オンすると、再生動作が停止する。   An example of a screen displayed on the display device 104 by the processing device 107 is shown in FIG. When the playback button 201 is turned on in the screen of FIG. 2, the display / playback unit 141 reads out and plays back the audio signal 131 stored in the storage device 103 by the audio playback unit 146, and outputs the playback audio from the speaker 105. In synchronization with this sound output, the recognition result display means 145 displays the recognition result 133 of the sound signal being reproduced in the recognition result display column 202. The playback button 201 also serves as a stop button. When it is turned on again, the playback operation is stopped.

認識結果表示欄202は複数行からなり、現在再生されている行は破線で示されるように強調されると共に、注目行表示欄203に拡大表示され、またその音声波形のイメージが波形表示欄204に表示される。再生ボタン201の周囲には、巻き戻しボタン205、早送りボタン206、ボリューム調整スライダ207があり、それぞれ再生位置の巻き戻し、早送り、音量調整が可能になっている。時刻表示欄208に表示される時刻は、注目行表示欄203に表示される音声認識結果に対応する音声信号の始終端時刻を示す。映像表示欄209は、音声に付随する映像がある場合に、再生された映像を表示する欄である。   The recognition result display field 202 is composed of a plurality of lines, and the currently reproduced line is highlighted as indicated by a broken line, and is enlarged and displayed in the attention line display field 203, and the sound waveform image is displayed in the waveform display field 204. Is displayed. Around the playback button 201, there are a rewind button 205, a fast forward button 206, and a volume adjustment slider 207, which can rewind, fast forward, and adjust the volume of the playback position, respectively. The time displayed in the time display column 208 indicates the start / end time of the audio signal corresponding to the speech recognition result displayed in the attention line display column 203. The video display column 209 is a column for displaying a reproduced video when there is a video accompanying audio.

また、認識結果を修正するためのGUI部品として、正解文字列入力欄210、OKボタン211、注目行を一つ前の行あるいは一つ後の行に進める戻りボタン212および送りボタン213、注目行全体の認識結果を削除する削除ボタン214がある。また、注目行表示欄203に表示される認識結果中、修正箇所決定手段143で決定された修正箇所が破線215で示されるように強調して表示されるようになっている。   Also, as a GUI component for correcting the recognition result, a correct character string input field 210, an OK button 211, a return button 212 and a feed button 213 that advance the attention line to the previous line or the next line, attention line There is a delete button 214 for deleting the entire recognition result. In addition, in the recognition result displayed in the attention line display field 203, the correction location determined by the correction location determination means 143 is highlighted and displayed as indicated by a broken line 215.

図2の画面には、注目行表示欄203に「フセイン大統領の故郷低い一度から」なる認識結果が表示されているが、この認識結果は「フセイン大統領の故郷ティクリットから」という音声101を音声認識装置102で認識した際に、「ティクリット」の部分が「低い一度」に誤認識された結果である。このような誤認識部分は、利用者が再生ボタン201をオンして元の音声信号131を自分の耳で聞き取り、注目行表示欄203に表示されている認識結果と比べることで容易に発見することができる。   In the screen of FIG. 2, a recognition result “From the beginning of President Hussein ’s hometown is low” is displayed in the attention line display field 203. This is a result of erroneously recognizing the “ticlit” portion as “low once” when recognized by the recognition device 102. Such a misrecognized portion is easily found by the user turning on the playback button 201 and listening to the original audio signal 131 with his / her ear and comparing it with the recognition result displayed in the attention line display field 203. be able to.

従来、このような誤認識箇所の修正は、修正箇所を利用者自身が指定しなければならなかったが、本実施の形態では、正解文字列として「ティクリット」が正解文字列入力欄210に入力されると、修正箇所決定手段143が、注目行表示欄203に表示されている認識結果の文字列の中から正解文字列の「ティクリット」と発音的に似ている箇所「低い一度」を検出し、この検出部分を修正箇所として利用者に提示する。このため、利用者は修正箇所を自ら指定する手間が省け、修正作業を効率良く進めることが可能となる。なお、若し検出された修正箇所が間違っていれば、マウスカーソルなどで正しい修正箇所を注目行表示欄203上で指定すれば良く、その場合の労力は利用者自身が最初から修正箇所を指定する場合と変わらない。   Conventionally, the correction of such a misrecognized portion had to be specified by the user himself. However, in the present embodiment, “ticlit” is entered in the correct character string input field 210 as the correct character string. When input, the correction location determination means 143 makes a “low once” location that is pronouncedly similar to the correct character string “ticlit” among the recognition result character strings displayed in the target line display field 203. Is detected, and this detected portion is presented to the user as a corrected portion. For this reason, the user can save the trouble of designating the correction part himself / herself, and can efficiently perform the correction work. If the detected correction location is incorrect, the correct correction location can be specified on the attention line display field 203 with a mouse cursor or the like. In this case, the user himself / herself specifies the correction location from the beginning. The same as when you do.

次に、修正箇所決定手段143および認識結果修正手段144を中心に本実施の形態の幾つかの実施例について詳細に説明する。   Next, some examples of the present embodiment will be described in detail with a focus on the correction location determination unit 143 and the recognition result correction unit 144.

図3を参照すると、本実施例における修正箇所決定手段143は、正解文字列入力欄210に入力された正解文字列301と、注目行表示欄203に表示された認識結果に対応して記憶装置103に記憶されている分析結果132とを入力し、分析結果132上に網羅的に設定した修正箇所候補毎に、その修正箇所候補の分析結果部分と正解文字列301との音声信号的な類似度を示すスコアを計算する検索手段302と、この検索手段302で求められた複数の修正箇所候補の内から1または複数の修正箇所を類似度スコアに基づいて選択し、認識結果修正手段144に認識結果上での修正箇所を通知する選択手段303とで構成されている。   Referring to FIG. 3, the correction location determination unit 143 according to the present embodiment stores the correct character string 301 input in the correct character string input field 210 and the recognition result displayed in the attention line display field 203. 103, the analysis result 132 memorize | stored in 103 is inputted, and for every correction part candidate set up comprehensively on the analysis result 132, the analysis result part of the correction part candidate and the sound signal similarity of the correct character string 301 A search unit 302 that calculates a score indicating a degree, and one or a plurality of correction points are selected from a plurality of correction point candidates obtained by the search unit 302 based on the similarity score, and the recognition result correction unit 144 It comprises a selection means 303 for notifying the correction location on the recognition result.

検索手段302は、標準パタン作成手段311およびスコア計算・位置検出手段312で構成される。   The search unit 302 includes a standard pattern creation unit 311 and a score calculation / position detection unit 312.

標準パタン作成手段311は、正解文字列301に対応する音声の標準パタンを作成する。具体的には、正解文字列301を音素列に変換し、予め用意しておいた音素標準パタンをその順に並べ、その文字列の標準パタンを作成する。標準パタン作成手段311の構成例を図4に示す。   The standard pattern creation unit 311 creates a standard pattern of speech corresponding to the correct character string 301. Specifically, the correct character string 301 is converted into a phoneme string, phoneme standard patterns prepared in advance are arranged in that order, and a standard pattern of the character string is created. A configuration example of the standard pattern creation means 311 is shown in FIG.

図4を参照すると、標準パタン作成手段311は、第1記憶部401、第2記憶部402、入力部403、音素列変換部404、音素標準パタン変換部405および第3記憶部406で構成される。入力部403は、正解文字列301を入力し、第1記憶部401に記憶する。音素列変換部404は、第1記憶部401から正解文字列301中の文字をその先頭より順に入力し、単語とその発音すなわち音素列を記述した辞書を予め記憶する第3記憶部406を検索して各文字を音素列に変換し、第1記憶部401に音素列411として記憶する。音素標準パタン変換部405は、第1記憶部401から音素列411中の音素をその先頭より順に入力し、各音素毎の標準パタンを記憶している第2記憶部402から当該音素に対応する音素標準パタンを検索し、第1記憶部401に出力する処理を繰り返すことにより、正解文字列301に対応する標準パタン412を第1記憶部401上に生成する。ここで、第2記憶部402に予め記憶される音素標準パタンは、分析結果132との類似度が計算できるように分析結果132と同じ種類のパタン(例えば前述したHMMなど)が使用される。   Referring to FIG. 4, the standard pattern creation unit 311 includes a first storage unit 401, a second storage unit 402, an input unit 403, a phoneme string conversion unit 404, a phoneme standard pattern conversion unit 405, and a third storage unit 406. The The input unit 403 inputs the correct character string 301 and stores it in the first storage unit 401. The phoneme string conversion unit 404 inputs the characters in the correct character string 301 from the first storage unit 401 in order from the top, and searches the third storage unit 406 that stores in advance a dictionary describing words and their pronunciations, that is, phoneme sequences. Then, each character is converted into a phoneme string and stored in the first storage unit 401 as a phoneme string 411. The phoneme standard pattern conversion unit 405 inputs the phonemes in the phoneme string 411 from the first storage unit 401 in order from the head, and corresponds to the phoneme from the second storage unit 402 storing the standard pattern for each phoneme. By retrieving the phoneme standard pattern and repeating the process of outputting it to the first storage unit 401, a standard pattern 412 corresponding to the correct character string 301 is generated on the first storage unit 401. Here, the phoneme standard pattern stored in advance in the second storage unit 402 uses the same type of pattern as the analysis result 132 (for example, the above-described HMM) so that the similarity with the analysis result 132 can be calculated.

例えば図2の正解文字列入力欄210に入力された「ティクリット」の場合、図5に示されるように、「ティクリット」が音素列「t i k u r i Qt t o」に変換され、次いで予め用意された音素標準パタンをその順に並べ、「ティクリット」を表す標準パタンが作成される。   For example, in the case of “ticlit” input in the correct character string input field 210 in FIG. 2, “ticlit” is converted into a phoneme string “tikuri Qt to” as shown in FIG. The phoneme standard patterns are arranged in that order, and a standard pattern representing “ticlit” is created.

スコア計算・位置検出手段312は、標準パタン作成手段311で作成された正解文字列の標準パタン412と、注目行表示欄203に表示された認識結果に対応して記憶装置103に記憶されている分析結果132とを入力とし、或る分析結果部分を与えたときに標準パタンが正解文字列を出力する確率(スコア)を計算して出力する。スコア計算・位置検出手段312の構成例を図6に示す。   The score calculation / position detection means 312 is stored in the storage device 103 in correspondence with the standard pattern 412 of the correct character string created by the standard pattern creation means 311 and the recognition result displayed in the attention line display field 203. With the analysis result 132 as an input, the probability (score) that the standard pattern outputs a correct character string when a certain analysis result part is given is calculated and output. A configuration example of the score calculation / position detection means 312 is shown in FIG.

図6を参照すると、スコア計算・位置検出手段312は、記憶部601、第1入力部602、第2入力部603、位置決定部604および確率計算部605で構成される。第1入力部602は、標準パタン作成手段311により作成された正解文字列の標準パタン412を図4の第1記憶部401から読み出して、記憶部601に記憶する。第2入力部603は、注目行表示欄203に表示された認識結果に対応する分析結果132を記憶装置103から読み出して記憶部601に記憶する。位置決定部604は、記憶部601から分析結果132を読み出し、分析結果132上の修正箇所となる候補を網羅的に求め、各行に修正箇所候補の位置611とスコア612と処理済フラグ613との組を設定したリスト614を生成して記憶部601に記憶する。この時点では各スコア612はNULLであり、処理済フラグ613は未処理を示す。確率計算部605は、記憶部601からリスト614の各行を1行ずつ読み出し、読み出した行の修正箇所候補の位置611で示される分析結果部分を記憶部601の分析結果132から読み出し、記憶部601から読み出した標準パタン412が前記読み出した分析結果部分を出力する確率(スコア)を計算し、スコア612に書き込むと共に、処理済フラグ613を処理済に設定する。リスト614の全フラグ613が処理済になった時点で処理が終了する。   Referring to FIG. 6, the score calculation / position detection unit 312 includes a storage unit 601, a first input unit 602, a second input unit 603, a position determination unit 604, and a probability calculation unit 605. The first input unit 602 reads the standard pattern 412 of the correct character string created by the standard pattern creation unit 311 from the first storage unit 401 of FIG. 4 and stores it in the storage unit 601. The second input unit 603 reads the analysis result 132 corresponding to the recognition result displayed in the attention line display field 203 from the storage device 103 and stores it in the storage unit 601. The position determination unit 604 reads the analysis result 132 from the storage unit 601, comprehensively obtains candidates for correction locations on the analysis result 132, and sets the correction location candidate position 611, the score 612, and the processed flag 613 in each row. A list 614 in which a set is set is generated and stored in the storage unit 601. At this time, each score 612 is NULL, and the processed flag 613 indicates unprocessed. The probability calculation unit 605 reads out each row of the list 614 from the storage unit 601 one by one, reads out the analysis result part indicated by the position 611 of the corrected portion candidate of the read out row from the analysis result 132 of the storage unit 601, and stores the storage unit 601. The probability (score) that the standard pattern 412 read out from the output of the read analysis result part is calculated and written in the score 612, and the processed flag 613 is set as processed. The process ends when all the flags 613 in the list 614 have been processed.

選択手段303は、図3に示されるようにスコア比較手段313と位置変換部314とで構成される。   The selection unit 303 includes a score comparison unit 313 and a position conversion unit 314 as shown in FIG.

スコア比較手段313は、検索手段302で作成されたリスト614を記憶部601から読み出し、各行毎に、そのスコア612を予め設定された閾値と比較し、閾値以上のスコアを持つ行の修正箇所候補の位置611を修正箇所として選択し、位置変換部314に出力する。ここでは、予め設定された閾値以上のスコアを持つ修正箇所候補の位置611を修正箇所として選択したが、リスト614中で最もスコアの大きい行の修正箇所候補の位置611を修正箇所として選択するようにしてもよい。   The score comparison unit 313 reads the list 614 created by the search unit 302 from the storage unit 601, compares the score 612 with a preset threshold value for each row, and corrects a corrected portion candidate for a row having a score equal to or higher than the threshold value. The position 611 is selected as a correction location and output to the position conversion unit 314. Here, the position 611 of the correction part candidate having a score equal to or higher than a preset threshold is selected as the correction part, but the position 611 of the correction part candidate having the highest score in the list 614 is selected as the correction part. It may be.

位置変換部314は、記憶装置103における分析結果132と認識結果133との対応関係に基づいて、スコア比較手段313から出力された分析結果132上での修正箇所を認識結果133上での修正箇所に変換し、認識結果修正手段144に出力する。   Based on the correspondence between the analysis result 132 and the recognition result 133 in the storage device 103, the position conversion unit 314 converts the correction part on the analysis result 132 output from the score comparison unit 313 to the correction part on the recognition result 133. And output to the recognition result correction means 144.

認識結果修正手段144の構成例を図7に示す。図7を参照すると、認識結果修正手段144は、記憶部701、第1入力部702、第2入力部703、第3入力部704、修正箇所提示手段705および文字列操作部706で構成される。第1入力部702は、正解文字列301を例えば図4の第1記憶部401から読み出し、記憶部701に記憶する。第2入力部703は、図2の注目行表示欄203に表示されている認識結果133を記憶装置103から読み出し、記憶部701に記憶する。第3入力部704は、修正箇所決定手段143の選択手段303における位置変換部314から出力された認識結果上での修正位置711を入力して記憶部701に記憶する。修正箇所提示手段705は、記憶部701から修正箇所711を読み出し、図2の注目行表示欄203に表示されている認識結果中の修正箇所711が示す部分を強調して表示することにより、利用者に修正箇所を提示する。文字列操作部706は、図2のOKボタン211がオンされた場合に、記憶部701から正解文字列301、認識結果133および修正位置711を読み出し、修正位置711が示す認識結果133上の修正箇所の文字列を正解文字列301で置換し、置換後の認識結果を記憶装置103に書き戻すと同時に図2の注目行表示欄203の表示を更新する。なお、利用者が注目行表示欄203上で修正位置をマウス操作などによって変更した場合、第3入力部703が変更後の修正位置で記憶部701の修正位置711を更新する。   A configuration example of the recognition result correction unit 144 is shown in FIG. Referring to FIG. 7, the recognition result correction unit 144 includes a storage unit 701, a first input unit 702, a second input unit 703, a third input unit 704, a correction location presentation unit 705, and a character string operation unit 706. . The first input unit 702 reads the correct character string 301 from, for example, the first storage unit 401 in FIG. 4 and stores it in the storage unit 701. The second input unit 703 reads the recognition result 133 displayed in the attention line display field 203 in FIG. 2 from the storage device 103 and stores it in the storage unit 701. The third input unit 704 inputs the correction position 711 on the recognition result output from the position conversion unit 314 in the selection unit 303 of the correction point determination unit 143 and stores it in the storage unit 701. The correction location presenting means 705 reads the correction location 711 from the storage unit 701, highlights and displays the portion indicated by the correction location 711 in the recognition result displayed in the attention line display field 203 of FIG. Present corrections to the person. When the OK button 211 in FIG. 2 is turned on, the character string operation unit 706 reads the correct character string 301, the recognition result 133, and the correction position 711 from the storage unit 701, and the correction on the recognition result 133 indicated by the correction position 711. The character string of the place is replaced with the correct character string 301, and the recognition result after the replacement is written back to the storage device 103, and at the same time, the display in the attention line display column 203 in FIG. When the user changes the correction position on the attention line display field 203 by a mouse operation or the like, the third input unit 703 updates the correction position 711 in the storage unit 701 with the changed correction position.

次に、例えば「フセイン大統領の故郷ティクリットから」という音声の書き起こしを作成する際に使用する音声認識結果が、図2の注目行表示欄203に表示されるように「フセイン大統領の故郷低い一度から」となっており、利用者が”低い一度”を”ティクリット”に直すために、正解文字列入力欄210に”ティクリット”を入力した以降の動作を、図8のフローチャートを参照して説明する。   Next, for example, the voice recognition result used when creating a speech transcript of “from President Hussein's hometown Tikrit” is displayed in the attention line display column 203 of FIG. Refer to the flowchart of FIG. 8 for the operation after the user inputs “ticlit” in the correct character string input field 210 so that the user can change “low once” to “ticlit”. To explain.

処理装置107の正解入力手段142は、正解文字列入力欄210に正解文字列が入力されると、それを取り込み、修正箇所決定手段143に伝達する(図8のステップS801)。修正箇所決定手段143の検索手段302における標準パタン作成手段311は、図5に示したように、”ティクリット”を音素列”t i k u r i Qt t o”に変換し、予め用意しておいた音素標準パタンをその順に並べて、”ティクリット”を表現する標準パタンを作成する(ステップS802)。次に、スコア計算・位置検出手段312は、”ティクリット”の標準パタンと、記憶装置103に保持されていた分析結果132中の認識結果「フセイン大統領の故郷低い一度から」に対応する分析結果を入力とし、各分析結果部分を標準パタンに与えたときに正解文字列(ティクリット)を出力する確率(スコア)を計算する(ステップS803)。この場合、標準パタンは”ティクリット”と発声されている部分(認識結果では”低い一度”と誤認識されている部分)の分析結果のところで最も高いスコアとなり、他の部分は低いスコアとなる。   When the correct character string is input to the correct character string input field 210, the correct answer input unit 142 of the processing device 107 captures the correct character string and transmits it to the correction location determination unit 143 (step S801 in FIG. 8). As shown in FIG. 5, the standard pattern creation means 311 in the search means 302 of the correction location determination means 143 converts “ticlit” into a phoneme string “tikuri Qt to” and prepares a phoneme standard pattern prepared in advance. Are arranged in that order to create a standard pattern expressing “ticlit” (step S802). Next, the score calculation / position detection means 312 receives the analysis result corresponding to the standard pattern of “Tikrit” and the recognition result “From the time when President Hussein's hometown is low” in the analysis result 132 held in the storage device 103. And the probability (score) of outputting a correct character string (ticlit) when each analysis result part is given to the standard pattern is calculated (step S803). In this case, the standard pattern has the highest score in the analysis result of the part uttered as “ticlit” (the part that is erroneously recognized as “low once” in the recognition result), and the other part has a low score. .

次に、選択手段303のスコア比較手段313は、予め閾値として用意しておいたスコアと比較を行い、位置変換部314は閾値以上のスコアだった分析結果部分に対応する認識結果上の位置を修正位置として出力する。閾値は、その値以上のスコアであればその部分が正解文字列とみなせるという値を設定しておく。あるいはスコアの高かった順にその部分の位置情報を出力するようにしてもよい。ここでは、閾値を満たすスコアは1つだけで、”ティクリット”と発声された部分(誤認識”低い一度”部分)のみだったとする。   Next, the score comparison unit 313 of the selection unit 303 performs comparison with a score prepared in advance as a threshold value, and the position conversion unit 314 determines the position on the recognition result corresponding to the analysis result portion having a score equal to or higher than the threshold value. Output as the correction position. As the threshold value, a value is set such that if the score is equal to or higher than that value, the portion can be regarded as a correct character string. Or you may make it output the positional information on the part in order with a high score. Here, it is assumed that there is only one score that satisfies the threshold, and only the portion that is uttered “ticlit” (the misrecognition “low once” portion).

認識結果修正手段144は、注目行表示欄203に表示した認識結果のうち、選択手段303が出力した修正位置に相当する認識結果部分”低い一度”の部分にフォーカスを当て、利用者に修正位置を提示する(ステップS804、S805)。そして、利用者がOKボタン211をオンすると、認識結果修正手段144は、フォーカスの当たっている認識結果の部分(誤認識結果”低い一度”)を正解文字列”ティクリット”に置換する(ステップS806)。   The recognition result correction unit 144 focuses the recognition result portion “low once” corresponding to the correction position output by the selection unit 303 among the recognition results displayed in the attention line display field 203, and corrects the correction position to the user. Is presented (steps S804 and S805). When the user turns on the OK button 211, the recognition result correcting unit 144 replaces the focused recognition result portion (the erroneous recognition result “low once”) with the correct character string “ticlit” (step). S806).

なお、閾値を満たすスコアのものが複数あった場合やスコアの高かった順に並べる場合についても、スコアの高い順に逐次変換してよいかどうかを利用者に確認しながら変換を行うようにすればよい。   In addition, when there are a plurality of scores satisfying the threshold or when arranging in the order of the highest score, the conversion may be performed while confirming with the user whether or not the conversion may be sequentially performed in the order of the highest score. .

次に本実施例の効果を説明する。   Next, the effect of the present embodiment will be described.

正解文字列を入力すれば、その正解文字列と発音が類似している認識結果部分が修正箇所に自動的に設定されるため、利用者自身が修正箇所を指定する手間が省け、利用者の負担を軽減することができる。   If a correct character string is entered, a recognition result part whose pronunciation is similar to that of the correct character string is automatically set as the correction part, so that the user himself does not have to specify the correction part. The burden can be reduced.

正解文字列を音声入力でなくキーボードから入力するため、誤認識箇所の正解文字列を正確に与えることができると共に、正解文字列が認識辞書にない単語(列)でも正しく正解を与えることができる。また、元の音声の発話者に限らず誰でも修正作業が行える。   Since the correct character string is input from the keyboard instead of voice input, the correct character string of the misrecognized part can be given accurately, and a correct answer can be given even for a word (string) whose correct character string is not in the recognition dictionary. . In addition, anyone can make correction work, not just the original voice speaker.

正解文字列と発音が類似する箇所の探索を、認識結果全体でなくその一部分(注目行表示欄203に表示されている部分)に限定したため、修正箇所の検出を迅速かつ正確に行うことができる。   Since the search for a portion whose pronunciation is similar to the correct character string is limited to a part of the recognition result (the portion displayed in the target line display field 203), the correction portion can be detected quickly and accurately. .

本実施例の修正箇所決定手段143は、正解文字列を音声の標準パタンに変換し、この標準パタンと記憶装置103上の分析結果132との音声信号的な類似性を判定したが、音声合成によって正解文字列から音声波形を生成し、これと記憶装置103上の音声信号131との音韻的な類似性を判定することにより修正箇所を決定することもできる。   The correction location determination means 143 of the present embodiment converts the correct character string into a voice standard pattern, and determines the similarity of the voice signal between the standard pattern and the analysis result 132 on the storage device 103. Thus, it is also possible to determine a correction location by generating a speech waveform from the correct character string and determining phonological similarity between the speech waveform and the speech signal 131 on the storage device 103.

また本実施例の修正箇所決定手段143は、正解文字列の標準パタンと比較する分析結果を記憶装置103から読み出したが、記憶装置103に記憶されている音声信号131から分析手段112と同様の処理で分析結果を修正箇所決定手段143自身が生成して利用することもできる。あるいは、正解文字列から標準パタンを作成したように、音声認識結果の文字列から音声の標準パタンを作成して利用することもできる。これらの構成によれば、音声認識装置102は音声認識処理の途中結果である分析結果132を記憶装置103に出力する必要がない。   In addition, the correction point determination unit 143 according to the present embodiment reads the analysis result to be compared with the standard pattern of the correct character string from the storage device 103, but the same as the analysis unit 112 from the audio signal 131 stored in the storage device 103. It is also possible for the correction location determination means 143 itself to generate and use the analysis result in the processing. Alternatively, it is also possible to create and use a standard voice pattern from a voice recognition result character string as if a standard pattern was created from a correct character string. According to these configurations, the speech recognition apparatus 102 does not need to output the analysis result 132 that is an intermediate result of the speech recognition processing to the storage device 103.

また本実施例の認識結果修正手段144は、修正箇所決定手段143で決定された修正箇所を利用者に提示し、利用者の確認を得てから認識結果の修正を行ったが、修正箇所の提示や利用者による確認を省略し、認識結果修正手段144が、決定された修正箇所を正解文字列に自動的に置換するようにしてもよい。   In addition, the recognition result correction unit 144 of the present embodiment presents the correction location determined by the correction location determination unit 143 to the user and corrects the recognition result after obtaining confirmation from the user. It is also possible to omit the presentation and confirmation by the user, and the recognition result correction unit 144 may automatically replace the determined correction part with the correct character string.

また本実施例では、利用者は誤認識部分のみの正解を入力する例を示したが、誤認識部分とその前あるいは後の文字とから構成される文字列を正解文字列として入力することもできる。例えば前述した例では、「故郷ティクリットから」などのように正しく認識していた部分も付けて入力することもできる。こうすると、修正箇所の決定がより正確になる利点がある。なお、この場合、認識結果修正手段144が、「故郷低い一度から」全体を「故郷ティクリットから」に修正するか、正解文字列のうち認識結果と一致しない部分「低い一度」を「ティクリット」に修正するかは任意である。   In this embodiment, the user inputs the correct answer only for the misrecognized part. However, the user may input a character string composed of the misrecognized part and the character before or after it as the correct character string. it can. For example, in the above-described example, it is possible to input a part that has been correctly recognized, such as “from hometown Tikrit”. This has the advantage that the determination of the correction location becomes more accurate. In this case, the recognition result correcting means 144 corrects the entire “from hometown low once” to “from hometown Tikrit” or the part of the correct answer string that does not match the recognition result “low once” to “ticlit. It is arbitrary whether to correct it.

図9を参照すると、本実施例における修正箇所決定手段143は、正解文字列入力欄210に入力された正解文字列301と、注目行表示欄203に表示された認識結果133とを入力とし、認識結果133上に網羅的に設定した修正箇所候補毎に、その修正箇所候補の認識結果部分と正解文字列301との音韻的な類似度を示すスコアを計算する検索手段902と、この検索手段902で求められた複数の修正箇所候補の内から1または複数の修正箇所を類似度スコアに基づいて選択し、認識結果修正手段144に認識結果上での修正箇所を通知する選択手段903とで構成されている。   Referring to FIG. 9, the correction location determination means 143 in the present embodiment receives the correct character string 301 input in the correct character string input field 210 and the recognition result 133 displayed in the attention line display field 203 as inputs. Search means 902 for calculating a score indicating the phonological similarity between the recognition result portion of the correction location candidate and the correct character string 301 for each correction location candidate comprehensively set on the recognition result 133, and the search means A selection unit 903 that selects one or a plurality of correction points from the plurality of correction point candidates obtained in 902 based on the similarity score, and notifies the recognition result correction unit 144 of the correction points on the recognition result. It is configured.

検索手段902は、文字列作成手段911およびスコア計算・位置検出手段912で構成される。   The search unit 902 includes a character string creation unit 911 and a score calculation / position detection unit 912.

文字列作成手段911は、正解文字列301と認識結果133を入力とし、正解文字列301と認識結果133とのマッチングがとれるようにどちらも音素列に変換する。文字列作成手段911の構成例を図10に示す。   The character string creating unit 911 receives the correct character string 301 and the recognition result 133 as input, and converts both into a phoneme string so that the correct character string 301 and the recognition result 133 can be matched. A configuration example of the character string creating unit 911 is shown in FIG.

図10を参照すると、文字列作成手段911は、第1記憶部1001、第2記憶部1002、第1入力部1003、第2入力部1004および音素列変換部1005で構成される。第1入力部1003は、正解文字列301を入力し、第1記憶部1001に記憶する。第2入力部1004は、注目行表示欄203に表示された認識結果133を入力し、第1記憶部1001に記憶する。音素列変換部1005は、第1記憶部1001から正解文字列301中の文字をその先頭より順に入力し、単語とその発音すなわち音素列を記述した辞書を予め記憶する第2記憶部1002を検索して各文字を音素列に変換し、第1記憶部1001に正解文字列の音素列1011として記憶する。また、音素列変換部1005は、第1記憶部1001から認識結果133中の文字をその先頭より順に入力し、第2記憶部1002の辞書を検索して各文字を音素列に変換し、第1記憶部1001に認識結果の音素列1012として記憶する。   Referring to FIG. 10, the character string creating unit 911 includes a first storage unit 1001, a second storage unit 1002, a first input unit 1003, a second input unit 1004, and a phoneme string conversion unit 1005. The first input unit 1003 inputs the correct character string 301 and stores it in the first storage unit 1001. The second input unit 1004 inputs the recognition result 133 displayed in the attention line display field 203 and stores it in the first storage unit 1001. The phoneme string conversion unit 1005 inputs the characters in the correct character string 301 from the first storage unit 1001 in order from the top, and searches the second storage unit 1002 that stores in advance a dictionary describing words and their pronunciations, that is, phoneme sequences. Then, each character is converted into a phoneme string and stored in the first storage unit 1001 as a phoneme string 1011 of a correct character string. Further, the phoneme sequence conversion unit 1005 inputs characters in the recognition result 133 from the first storage unit 1001 in order from the top, searches the dictionary of the second storage unit 1002 to convert each character into a phoneme sequence, One storage unit 1001 stores the recognition result as a phoneme string 1012.

スコア計算・位置検出手段912は、文字列作成手段911で作成された正解文字列の音素列1011と認識結果の音素列1012とを入力とし、認識結果の音素列1012の各部分毎に正解文字列の音素列1011との類似度(スコア)を計算して出力する。スコア計算・位置検出手段912の構成例を図11に示す。   The score calculation / position detection unit 912 receives the phoneme string 1011 of the correct character string created by the character string creating unit 911 and the phoneme string 1012 of the recognition result as input, and correct characters for each part of the phoneme string 1012 of the recognition result The similarity (score) with the phoneme sequence 1011 is calculated and output. A configuration example of the score calculation / position detection means 912 is shown in FIG.

図11を参照すると、スコア計算・位置検出手段912は、記憶部1101、第1入力部1102、第2入力部1103、位置決定部1104および類似度計算部1105で構成される。第1入力部1102は、文字列作成手段911により作成された正解文字列の音素列1011を図10の第1記憶部1001から読み出して、記憶部1101に記憶する。第2入力部1103は、文字列作成手段911により作成された認識結果の音素列1012を図10の第1記憶部1001から読み出して記憶部1101に記憶する。位置決定部1104は、記憶部1101から認識結果の音素列1012を読み出し、この音素列1012上の修正箇所となる候補を網羅的に求め、各行に修正箇所候補の位置1111とスコア1112と処理済フラグ1113との組を設定したリスト1114を生成して記憶部1101に記憶する。この時点では各スコア1112はNULLであり、処理済フラグ1113は未処理を示す。類似度計算部1105は、記憶部1101からリスト1114の各行を1行ずつ読み出し、読み出した行の修正箇所候補の位置1111で示される音素列の部分を記憶部1101の認識結果の音素列1012から読み出し、記憶部1101から読み出した正解文字列の音素列1011との類似度(スコア)をDPマッチング法などで計算し、スコア1112に書き込むと共に、処理済フラグ1113を処理済に設定する。リスト1114の全フラグ1113が処理済になった時点で処理が終了する。   Referring to FIG. 11, the score calculation / position detection means 912 includes a storage unit 1101, a first input unit 1102, a second input unit 1103, a position determination unit 1104, and a similarity calculation unit 1105. The first input unit 1102 reads the phoneme string 1011 of the correct character string created by the character string creating unit 911 from the first storage unit 1001 of FIG. 10 and stores it in the storage unit 1101. The second input unit 1103 reads out the phoneme string 1012 of the recognition result created by the character string creating unit 911 from the first storage unit 1001 of FIG. 10 and stores it in the storage unit 1101. The position determination unit 1104 reads out the phoneme string 1012 of the recognition result from the storage unit 1101, comprehensively obtains candidates for correction points on the phoneme string 1012, and has processed the position 1111 and the score 1112 of the correction point candidates in each row. A list 1114 in which a set with the flag 1113 is set is generated and stored in the storage unit 1101. At this time, each score 1112 is NULL, and the processed flag 1113 indicates unprocessed. The similarity calculation unit 1105 reads out each row of the list 1114 from the storage unit 1101 one by one, and reads out the phoneme sequence portion indicated by the position 1111 of the corrected portion candidate of the read row from the phoneme sequence 1012 of the recognition result of the storage unit 1101. The similarity (score) between the correct character string read from the storage unit 1101 and the phoneme string 1011 is calculated by the DP matching method or the like, written to the score 1112, and the processed flag 1113 is set to processed. The process ends when all the flags 1113 in the list 1114 are processed.

選択手段903は、図9に示されるようにスコア比較手段913および位置変換部914で構成される。   The selection unit 903 includes a score comparison unit 913 and a position conversion unit 914 as shown in FIG.

スコア比較手段913は、検索手段902で作成されたリスト1114を記憶部1101から読み出し、各行毎に、そのスコア1112を予め設定された閾値と比較し、閾値以上のスコアを持つ行の修正箇所候補の位置1111を修正箇所として選択し、位置変換部914に出力する。ここでは、予め設定された閾値以上のスコアを持つ修正箇所候補の位置1111を修正箇所として選択したが、リスト1114中で最もスコアの大きい行の修正箇所候補の位置1111を修正箇所として選択するようにしてもよい。   The score comparison unit 913 reads the list 1114 created by the search unit 902 from the storage unit 1101, compares the score 1112 with a preset threshold value for each row, and corrects a corrected portion candidate for a row having a score equal to or higher than the threshold value. Position 1111 is selected as a correction location and output to the position conversion unit 914. Here, the position 1111 of the correction part candidate having a score equal to or higher than a preset threshold is selected as the correction part. However, the position 1111 of the correction part candidate of the line with the highest score in the list 1114 is selected as the correction part. It may be.

位置変換部914は、認識結果133を構成する文字列と認識結果133の音素列との対応関係に基づいて、スコア比較手段913から出力された認識結果133の音素列上での修正箇所を認識結果133の文字列上での修正箇所に変換し、認識結果修正手段144に出力する。   The position conversion unit 914 recognizes a correction location on the phoneme string of the recognition result 133 output from the score comparison unit 913 based on the correspondence between the character string constituting the recognition result 133 and the phoneme string of the recognition result 133. The result 133 is converted into a correction location on the character string and output to the recognition result correction means 144.

認識結果修正手段144などの他の構成要素は第1実施例と同じである。   Other components such as the recognition result correcting means 144 are the same as those in the first embodiment.

次に、例えば「日本と韓国は」という音声の書き起こしを作成する際に使用する音声認識結果が「日本と勧告は」となっており、利用者が”勧告”を”韓国”に直すために、正解文字列として”韓国”を入力した以降の動作を、図12のフローチャートを参照して説明する。   Next, for example, the speech recognition result used when creating a speech transcript of “Japan and Korea is” is “Japan and Recommendation”, and the user changes “Recommendation” to “Korea”. The operation after “Korea” is input as the correct character string will be described with reference to the flowchart of FIG.

処理装置107の正解入力手段142は、正解文字列入力欄210に正解文字列が入力されると、それを取り込んで修正箇所決定手段143に伝達する(図12のステップS1201)。修正箇所決定手段143の検索手段902における文字列作成手段911は、正解文字列の”韓国”を音素列”k a N k o k u”に、認識結果の”日本と勧告は”を音素列n i h o N / t o / k a N k o k u / w a”にそれぞれ変換する(ステップS1202)。次に、スコア計算・位置検出手段912は、”韓国”の音素列と、”日本と勧告は”の音素列を入力とし、後者の音素列の各部分と前者の音素列とのマッチングをとり、類似度を示すスコアを計算する(ステップS1203)。この場合、”日本と勧告は”の音素列における”kaNkoku”の部分(認識結果では”勧告”と誤認識されている部分)とのスコアが最も高くなり、他の部分は低いスコアとなる。   When the correct character string is input to the correct character string input field 210, the correct answer input unit 142 of the processing device 107 captures the correct character string and transmits it to the correction location determination unit 143 (step S1201 in FIG. 12). The character string creation means 911 in the search means 902 of the correction location determination means 143 uses the correct character string “Korea” as the phoneme string “ka N koku” and the recognition result “Japan and recommendation” as the phoneme string niho N / to. / ka N koku / wa ”(step S1202) Next, the score calculation / position detection means 912 receives the phoneme sequence of“ Korea ”and the phoneme sequence of“ Japan and recommendation ”, and the latter The phoneme sequence is matched with the former phoneme sequence and a score indicating the similarity is calculated (step S1203) .In this case, the “kaNkoku” portion (recognition in the “Japan and Recommendations” phoneme sequence) is recognized. As a result, the score of “parts misrecognized as“ recommendation ”) is the highest, and the other parts have low scores.

次に、選択手段903のスコア比較手段913は、予め閾値として用意しておいたスコアと比較を行い(ステップS1204)、位置変換部914は閾値以上のスコアだった認識結果の音素列部分に対応する認識結果の文字列上の位置を修正位置として出力する。以降、第1実施例と同様の動作が行われる(ステップS1205、S1206)。   Next, the score comparison unit 913 of the selection unit 903 compares the score prepared as a threshold value in advance (step S1204), and the position conversion unit 914 corresponds to the phoneme string portion of the recognition result that has a score equal to or higher than the threshold value. The position of the recognition result on the character string is output as the correction position. Thereafter, the same operation as in the first embodiment is performed (steps S1205 and S1206).

上述の例は同音異義語に誤認識していたものを修正する場合についての例で正解文字列と誤認識の音素列が同じであったが、DPマッチングなどの方法を用いることにより、多少の挿入、脱落、置換のある誤認識部分も自動検出することができる。例えば「昨日小泉首相は選挙の」という音声の書き起こしを作成する際の音声認識結果が「昨日小泉受賞は選挙の」となっており、”受賞”を”首相”に直す場合、正解文字列の音素列は”sh u sh o o”、認識結果の音素列は”k i n o o / k o i z u m i / j u sh o o / w a / s e N ky o / n o”であり、DPマッチングの結果”j u sh o o”の部分のマッチングスコアが他の部分と比べて最も高くなるので”受賞”と誤認識していた部分を”首相”の誤認識部分、つまり修正箇所として検出することができる。   In the above example, the correct character string and the wrong recognition phoneme string are the same in the case of correcting what was misrecognized as a homonym, but by using a method such as DP matching, It is also possible to automatically detect misrecognized parts with insertion, omission and replacement. For example, if the speech recognition result when creating a transcript of the speech “Yesterday Koizumi Prime Minister Election” is “Yesterday Koizumi Award is Election”, and “Award” is changed to “Prime Minister”, the correct answer string The phoneme sequence is “sh u sh oo”, the phoneme sequence of the recognition result is “kinoo / koizumi / ju sh oo / wa / se Nky o / no”, and the result of DP matching is “ju sh oo” Since the matching score is the highest compared to other parts, the part that has been misrecognized as “win” can be detected as the misrecognized part of “Prime Minister”, that is, the corrected part.

このように本実施例によれば、正解文字列の音素列と認識結果の音素列とのマッチングをとることによって、正解文字列で置換すべき修正箇所を自動検出しており、第1実施例と同様の効果が得られる。   As described above, according to the present embodiment, the correct portion to be replaced with the correct character string is automatically detected by matching the phoneme sequence of the correct character string with the phoneme sequence of the recognition result. The same effect can be obtained.

なお、本実施例では、正解文字列と発音が類似する箇所を認識結果中から検出するために、正解文字列の音素列と認識結果の音素列とのマッチングをとったが、正解文字列と認識結果とをそれぞれ音節列に変換し、音節列間でマッチングをとるようにしてもよい。例えば「フセイン大統領の故郷」を例にすれば、その音素列と音節列は以下のようになる。
○音素列…h u s e i N d a i t o o ry o o n o k o ky o o
○音節列…ふせいんだいとーりょーのこきょー
In this embodiment, in order to detect a portion similar in pronunciation to the correct character string from the recognition result, the phoneme sequence of the correct character string is matched with the phoneme sequence of the recognition result. Each recognition result may be converted into a syllable string, and matching may be performed between the syllable strings. For example, taking “Home of President Hussein” as an example, the phoneme sequence and syllable sequence are as follows.
○ Phoneme sequence… husei N daitoo ry oonoko ky oo
○ Syllable strings ... Fusindai no Ryoko

図13を参照すると、本実施例における修正箇所決定手段143は、選択手段303に推定手段1301を備えている点で、第1実施例のものと相違する。   Referring to FIG. 13, the correction location determination unit 143 in the present embodiment is different from that in the first embodiment in that the selection unit 303 includes an estimation unit 1301.

本実施例において、選択手段303のスコア比較手段313は、スコア計算・位置検出手段312が出力したスコアの中に閾値以上のものがあった場合には第1実施例と同様に位置変換部314を通じて修正位置を認識結果修正手段144に通知するが、閾値以上のスコアが存在しなかった場合、推定手段1301を起動する。   In the present embodiment, the score comparison means 313 of the selection means 303, when there is a score output by the score calculation / position detection means 312 that is equal to or greater than the threshold value, is similar to the first embodiment, the position conversion unit 314. Through this, the correction position is notified to the recognition result correction means 144, but when there is no score equal to or higher than the threshold, the estimation means 1301 is activated.

推定手段1301は、正解入力手段142から入力された正解文字列と予め用意された言語モデルとを用いて、正解文字列と認識結果中の単語との単語間の接続制約を調べ、正解文字列が挿入される確率の高い位置を認識結果上で検出する。そして、推定手段1301は、検出した挿入位置を認識結果修正手段144に通知する。認識結果修正手段144は、図2の注目行表示欄203に表示された認識結果中の前記通知された挿入位置に例えばカーソルを表示するなどの方法で、挿入位置を利用者に提示する。そして、利用者がOKボタン211をオンすると、認識結果修正手段144は、カーソルの当たっている認識結果の挿入箇所に正解文字列を挿入する。   The estimation means 1301 uses the correct character string input from the correct answer input means 142 and the language model prepared in advance to check the connection restriction between the correct character string and the word in the recognition result, and correct character string A position with a high probability of being inserted is detected on the recognition result. Then, the estimation unit 1301 notifies the recognition result correction unit 144 of the detected insertion position. The recognition result correction unit 144 presents the insertion position to the user by a method such as displaying a cursor at the notified insertion position in the recognition result displayed in the attention line display field 203 of FIG. When the user turns on the OK button 211, the recognition result correcting unit 144 inserts the correct character string at the insertion position of the recognition result on which the cursor is placed.

推定手段1301の構成例を図14に示す。図14を参照すると、推定手段1301は、第1記憶部1401、第2記憶部1402、第1入力部1403、第2入力部1404、位置決定部1405、接続可能性計算部1406および選択部1407で構成される。第1入力部1403は、正解文字列入力欄210に入力された正解文字列を例えば図4の第1記憶部401から読み出して、第1記憶部1401に記憶する。第2入力部1404は、注目行表示欄203に表示された認識結果133を記憶装置103から読み出して、第1記憶部1401に記憶する。位置決定部1405は、第1記憶部1401から認識結果133を読み出し、この認識結果133上で挿入箇所となる候補を網羅的に求め、各行に挿入箇所候補の位置1411とスコア1412と処理済フラグ1413との組を設定したリスト1414を生成して第1記憶部1401に記憶する。一般に単語境界位置が挿入箇所の候補になる。この時点では各スコア1412はNULLであり、処理済フラグ1413は未処理を示す。   A configuration example of the estimation unit 1301 is shown in FIG. Referring to FIG. 14, the estimation unit 1301 includes a first storage unit 1401, a second storage unit 1402, a first input unit 1403, a second input unit 1404, a position determination unit 1405, a connectability calculation unit 1406, and a selection unit 1407. Consists of. The first input unit 1403 reads the correct character string input to the correct character string input field 210 from, for example, the first storage unit 401 in FIG. 4 and stores the read character string in the first storage unit 1401. The second input unit 1404 reads the recognition result 133 displayed in the attention line display field 203 from the storage device 103 and stores it in the first storage unit 1401. The position determination unit 1405 reads the recognition result 133 from the first storage unit 1401, comprehensively obtains candidates for insertion positions on the recognition result 133, and inserts position candidates 1411, scores 1412, and processed flags in each row. A list 1414 in which a set with 1413 is set is generated and stored in the first storage unit 1401. In general, a word boundary position is a candidate for an insertion location. At this time, each score 1412 is NULL, and the processed flag 1413 indicates unprocessed.

接続可能性計算部1406は、第1記憶部1401からリスト1414の各行を1行ずつ読み出し、第1記憶部1401から読み出した認識結果133における前記読み出した行の挿入箇所候補の位置1411で示される位置に、第1記憶部1401から読み出した正解文字列301を挿入した場合の、挿入位置の前後の単語との接続可能性を示すスコアを、第2記憶部1402に予め記憶されている言語モデル1421から算出し、スコア1412に書き込むと共に、処理済フラグ1413を処理済に設定する。リスト1414の全フラグ1413が処理済になった時点で接続可能性計算部1406の処理が終了する。   The connectability calculation unit 1406 reads out each row of the list 1414 from the first storage unit 1401 one by one, and is indicated by the position 1411 of the insertion location candidate of the read row in the recognition result 133 read out from the first storage unit 1401. A language model stored in advance in the second storage unit 1402 as a score indicating the possibility of connection with words before and after the insertion position when the correct character string 301 read from the first storage unit 1401 is inserted at the position. 1421 is calculated and written in the score 1412, and the processed flag 1413 is set to processed. When all the flags 1413 in the list 1414 have been processed, the processing of the connectability calculation unit 1406 ends.

言語モデル1421としては、bigramやtrigramあるいはもっと距離の長い連鎖確率を使用することができる。ここで、bigramは、単語Aが観測されたという条件の下で、その次に単語Bが出現する確率であり、trigramは、単語A、単語Bが続けて観測されたという条件の下で、その次に単語Cが出現する確率である。上記スコアの値としては、この確率が使用される。   As the language model 1421, bigram, trigram, or a longer chain probability can be used. Here, bigram is the probability of the next occurrence of word B under the condition that word A is observed, and trigram is under the condition that word A and word B are continuously observed, The probability that the word C appears next. This probability is used as the score value.

最後に選択部1407は、第1記憶部1401からリスト1414中の挿入箇所候補の位置1411とスコア1412の対を順次読み出し、スコア最大となる挿入箇所候補の位置1411とスコア1412の対を特定し、この対のスコアが予め定められた閾値より高い場合に、この対の挿入箇所候補の位置1411を挿入位置1431として認識結果修正手段144に通知する。   Finally, the selection unit 1407 sequentially reads a pair of the insertion position candidate position 1411 and the score 1412 in the list 1414 from the first storage unit 1401, and specifies the pair of the insertion position candidate position 1411 and the score 1412 having the maximum score. When the score of the pair is higher than a predetermined threshold value, the recognition result correcting unit 144 is notified of the position 1411 of the pair of insertion location candidates as the insertion position 1431.

その他の構成要素は第1実施例と同じである。   Other components are the same as those in the first embodiment.

次に、例えば「ほんの少しだけでも飲酒運転に」という音声の書き起こしを作成する際に使用する音声認識結果が「ほんの少しだけでも運転に」となっており、脱落誤り(”飲酒”が脱落)を直すために、利用者が図2の正解文字列入力欄210に脱落している”飲酒”を入力した以降の動作を、図15のフローチャートを参照して説明する。   Next, for example, the speech recognition result used when creating a transcript of the voice “just a little drunk driving” is “just a little driving”, and the dropout error (“drinking” is dropped) ) Will be described with reference to the flowchart of FIG. 15 after the user has input “drinking” that has been dropped into the correct character string input field 210 of FIG.

処理装置107の正解入力手段142は、正解文字列入力欄210に正解文字列が入力されると、それを取り込んで修正箇所決定手段143に伝達する(図15のステップS1501)。修正箇所決定手段143の検索手段302における標準パタン作成手段311は、”飲酒”を音素列”i N sh u”に変換し、予め用意しておいた音素標準パタンをその順に並べて、”飲酒”を表現する標準パタンを作成する(ステップS1502)。次に、スコア計算・位置検出手段312は、”飲酒”の標準パタンと、記憶装置103に保持されていた分析結果132中の認識結果「ほんの少しだけでも運転に」に対応する分析結果を入力とし、各分析結果部分を標準パタンに与えたときに正解文字列(飲酒)を出力する確率(スコア)を計算し(ステップS1503)、選択手段303のスコア比較手段313は、予め閾値として用意しておいたスコアと比較を行う(ステップS1504)。しかし、この場合は閾値以上のスコアを持つ分析結果部分は存在しない。   When the correct character string is input to the correct character string input field 210, the correct input means 142 of the processing device 107 captures the correct character string and transmits it to the correction location determining means 143 (step S1501 in FIG. 15). The standard pattern creation means 311 in the search means 302 of the correction location determination means 143 converts “drinking” into a phoneme string “i N sh u”, arranges phoneme standard patterns prepared in advance in that order, and “drinks” Is created (step S1502). Next, the score calculation / position detection means 312 inputs the standard pattern of “drinking” and the analysis result corresponding to the recognition result “just a little driving” in the analysis result 132 held in the storage device 103. The probability (score) of outputting a correct character string (drinking) when each analysis result part is given to the standard pattern is calculated (step S1503), and the score comparison means 313 of the selection means 303 is prepared as a threshold value in advance. Comparison with the score is made (step S1504). However, in this case, there is no analysis result portion having a score equal to or higher than the threshold value.

このような場合に選択手段303は脱落誤りが起きていた可能性を調べるために、推定手段1301により、言語モデル1421を用いて、認識結果中の各挿入位置候補毎に、正解文字列の”飲酒”が挿入されるスコア(確率)を計算し(ステップS1505)、その最大スコアが予め定められた閾値以上であるかどうかを判定する(ステップS1506)。若し、閾値以上であれば、その最大スコアを持つ挿入位置候補が挿入位置に決定され、認識結果修正手段144に通知される。今の場合、”運転”の直前の位置が挿入位置として決定され、認識結果修正手段144に通知されたとする。   In such a case, the selection means 303 uses the language model 1421 by the estimation means 1301 to check the possibility that a drop error has occurred, and for each insertion position candidate in the recognition result, A score (probability) at which “drinking” is inserted is calculated (step S1505), and it is determined whether or not the maximum score is equal to or greater than a predetermined threshold (step S1506). If it is equal to or greater than the threshold value, the insertion position candidate having the maximum score is determined as the insertion position and notified to the recognition result correction means 144. In this case, it is assumed that the position immediately before “driving” is determined as the insertion position and notified to the recognition result correcting means 144.

認識結果修正手段144は、注目行表示欄203に表示した認識結果のうち、選択手段303が出力した挿入位置の部分にカーソルを表示するなどして、利用者に挿入位置を提示する(ステップS1507)。そして、利用者がOKボタン211をオンすると、認識結果修正手段144は、カーソルの当たっている認識結果の部分(”運転”の直前)に正解文字列”飲酒”を挿入する(ステップS1508)。   The recognition result correction unit 144 presents the insertion position to the user by displaying a cursor at the insertion position portion output from the selection unit 303 among the recognition results displayed in the attention line display field 203 (step S1507). ). When the user turns on the OK button 211, the recognition result correcting unit 144 inserts the correct character string “drinking” into the portion of the recognition result on which the cursor is hit (immediately before “driving”) (step S1508).

本実施例は、第1実施例と同様に正解文字列の標準パタンを用いて修正箇所を検出したが、第2実施例と同様に正解文字列の音素列などの文字列を用いて修正箇所を検索することも可能である。   In the present embodiment, the correction portion is detected using the standard pattern of the correct character string as in the first embodiment, but the correction portion is detected using a character string such as a phoneme string of the correct character string as in the second embodiment. It is also possible to search.

本実施例によれば、第1および第2の実施例による効果に加え、標準パタンや文字列を用いた検索では検出できなかった修正箇所について、言語モデルの情報を用いて正解文字列が挿入されるべき位置を推測することができる。   According to the present embodiment, in addition to the effects of the first and second embodiments, the correct character string is inserted using the information of the language model for the corrected portion that could not be detected by the search using the standard pattern or the character string. The position to be done can be inferred.

次に本発明の第2の実施の形態について図面を参照して詳細に説明する。   Next, a second embodiment of the present invention will be described in detail with reference to the drawings.

図16を参照すると、本発明の第2の実施の形態にかかる音声書き起こし支援装置は、処理装置107の正解入力手段142、修正箇所決定手段143および認識結果修正手段144に代えて複数正解入力手段1602、複数修正箇所決定手段1603、認識結果修正手段1604を備えている点で、図1に示した第1の実施の形態と相違する。   Referring to FIG. 16, the speech transcription support device according to the second exemplary embodiment of the present invention is provided with a plurality of correct answer inputs instead of the correct answer input means 142, the correction location determining means 143, and the recognition result correcting means 144 of the processing device 107. The second embodiment is different from the first embodiment shown in FIG. 1 in that a means 1602, a plurality of correction location determination means 1603, and a recognition result correction means 1604 are provided.

複数正解入力手段1602は、キーボード106から複数の誤認識部分のそれぞれの正解文字列をまとめて取り込み、1つずつ複数修正箇所決定手段1603へ送出する。具体的には、図2の注目行表示欄203に表示されている認識結果中に複数の誤認識部分があったために、利用者が、出現した誤認識の順にそれぞれの正解文字列を例えば空白で区切って正解文字列入力欄210に一度に入力すると、その先頭の正解文字列から順に1つずつ複数修正箇所決定手段1603に送出する。   The plurality of correct answer input means 1602 collectively takes in the correct character strings of the plurality of erroneous recognition portions from the keyboard 106 and sends them one by one to the plurality of correction location determination means 1603. Specifically, since there are a plurality of misrecognized portions in the recognition result displayed in the attention line display field 203 of FIG. 2, the user sets each correct character string in the order of the misrecognition that appears, for example, Are input to the correct answer character string input field 210 at a time, and the correct answer character strings are sent one by one to the multiple correction location determination means 1603 in order from the first correct answer character string.

複数修正箇所決定手段1603は、複数正解入力手段1602から正解文字列が送られてくる毎に、第1の実施の形態の各実施例と同様の方法で、図2の注目行表示欄203に表示されている認識結果のうち、正解文字列と発音が最も類似する箇所を修正箇所に決定し、認識結果修正手段1604に通知する。   Each time the correct character string is sent from the multiple correct answer input means 1602, the multiple correction location determination means 1603 is displayed in the attention line display field 203 of FIG. 2 in the same manner as in each example of the first embodiment. Of the displayed recognition results, a portion where the correct character string and the pronunciation are most similar is determined as a correction portion and notified to the recognition result correction means 1604.

認識結果修正手段1604は、記憶装置103に記憶されている認識結果133を複数正解入力手段1602により取り込まれた正解文字列と複数修正箇所決定手段1603により決定された修正箇所とに基づいて自動的に修正するか、もしくは利用者に修正を促す。そして、1つの誤認識部分の修正を完了する毎に、修正した最終位置を示す修正完了通知1601を複数修正箇所決定手段1603に送出する。   The recognition result correction unit 1604 automatically recognizes the recognition result 133 stored in the storage device 103 based on the correct character string captured by the plurality of correct input units 1602 and the correction part determined by the plural correction part determination unit 1603. Or urge the user to correct it. Each time correction of one erroneously recognized portion is completed, a correction completion notification 1601 indicating the corrected final position is sent to a plurality of correction location determination means 1603.

複数修正箇所決定手段1603は、修正完了通知1601を受信すると、複数正解入力手段1602から送られる次の正解文字列を元に修正箇所を決定する。その際、複数修正箇所決定手段1603は、注目行表示欄203に表示されている認識結果における修正完了通知1601で通知された修正最終位置より後ろの部分に限定して、正解文字列とのマッチングをとる。   When receiving the correction completion notification 1601, the multiple correction location determination means 1603 determines the correction location based on the next correct character string sent from the multiple correct answer input means 1602. At that time, the plurality of correction location determination means 1603 performs matching with the correct character string only in the portion after the correction final position notified by the correction completion notification 1601 in the recognition result displayed in the attention line display field 203. Take.

本実施の形態によれば、第1の実施の形態と同様の効果が得られると共に、複数の誤認識のそれぞれに対する正解を出現した誤認識の順に並べてまとめて入力することができ、しかも、複数修正箇所決定手段1603において、正解入力の順番が後ろの正解は、正解入力の順番が先で認識結果修正手段1604で修正が確定した位置より後ろの部分についてのみ正解文字列とのマッチングを行うので、マッチングに要する処理時間を削減することができる効果がある。   According to the present embodiment, the same effects as those of the first embodiment can be obtained, and correct answers for each of a plurality of misrecognitions can be arranged and input together in the order of the misrecognitions that have appeared. In the correction location determination means 1603, the correct answer after the correct input order is matched with the correct character string only for the part after the position where the correct input order is first and the correction is confirmed by the recognition result correction means 1604. The processing time required for matching can be reduced.

次に、複数修正箇所決定手段1603および認識結果修正手段1604を中心に本実施の形態の実施例について詳細に説明する。   Next, an example of the present embodiment will be described in detail with a focus on the multiple correction location determination unit 1603 and the recognition result correction unit 1604.

図17を参照すると、本実施例における複数修正箇所決定手段1603は、複数正解入力手段1602から1つずつ送られる正解文字列入力欄210に入力された正解文字列301と、注目行表示欄203に表示された認識結果に対応して記憶装置103に記憶されている分析結果132と、認識結果修正手段1604からの修正完了通知1601とを入力し、修正完了通知1601が示す最終修正位置以降の分析結果132上に網羅的に設定した修正箇所候補毎に、その修正箇所候補の分析結果部分と正解文字列301との音声信号的な類似度を示すスコアを計算する検索手段1702と、この検索手段1702で求められた複数の修正箇所候補の内から1または複数の修正箇所を類似度スコアに基づいて選択し、認識結果修正手段1604に認識結果上での修正箇所を通知する選択手段1703とで構成されている。   Referring to FIG. 17, the plurality of correction location determination means 1603 in the present embodiment includes the correct character string 301 input to the correct character string input field 210 sent one by one from the multiple correct answer input means 1602, and the attention line display field 203. The analysis result 132 stored in the storage device 103 corresponding to the recognition result displayed on the screen and the correction completion notification 1601 from the recognition result correction means 1604 are input, and the data after the last correction position indicated by the correction completion notification 1601 are input. Search means 1702 for calculating a score indicating a speech signal similarity between the analysis result portion of the correction part candidate and the correct character string 301 for each correction part candidate comprehensively set on the analysis result 132, and the search Based on the similarity score, one or more correction locations are selected from among the plurality of correction location candidates obtained by the means 1702, and the recognition result correction means 160 is selected. It is composed of a selection means 1703 for notifying the correction point on the recognition result.

検索手段1702は、標準パタン作成手段1711およびスコア計算・位置検出手段1712で構成される。   The search unit 1702 includes a standard pattern creation unit 1711 and a score calculation / position detection unit 1712.

標準パタン作成手段1711は、図4に示した実施例1の標準パタン作成手段311と基本的な構成は同じであるが、認識結果修正手段1604から修正完了通知1601を受ける毎に、複数正解入力手段1602から次の順番の正解文字列301を受け取ってその標準パタンを作成する点が相違する。   The standard pattern creation unit 1711 has the same basic configuration as the standard pattern creation unit 311 of the first embodiment illustrated in FIG. 4, but each time a correction completion notification 1601 is received from the recognition result correction unit 1604, a plurality of correct answers are input. The difference is that the correct character string 301 in the next order is received from the means 1602 and its standard pattern is created.

スコア計算・位置検出手段1702は、標準パタン作成手段1711で作成された正解文字列の標準パタンと、注目行表示欄203に表示された認識結果に対応して記憶装置103に記憶されている分析結果132と、修正完了通知1601とを入力とし、修正完了通知1601で示される最終修正位置以降の或る分析結果部分を与えたときに標準パタンが正解文字列を出力する確率(スコア)を計算して出力する。スコア計算・位置検出手段1712の構成例を図18に示す。   The score calculation / position detection means 1702 is an analysis stored in the storage device 103 corresponding to the standard pattern of the correct character string created by the standard pattern creation means 1711 and the recognition result displayed in the attention line display field 203. The result 132 and the correction completion notification 1601 are input, and the probability (score) that the standard pattern outputs the correct character string when a certain analysis result portion after the final correction position indicated by the correction completion notification 1601 is given is calculated. And output. A configuration example of the score calculation / position detection means 1712 is shown in FIG.

図18を参照すると、スコア計算・位置検出手段1712は、第3入力部1801が追加されている点と、位置決定部1802の機能が変更されている点で、図6に示した実施例1のスコア計算・位置検出手段312と相違する。第3入力部1801は、認識結果修正手段1604から送出される修正完了通知1601を入力し、この通知に含まれる最終修正位置1811を記憶部601に記憶する。位置決定部1802は、記憶部601から最終修正位置1811を読み出し、記憶部601の分析結果132のうちの最終修正位置1811以降の分析結果部分を読み出し、この分析結果部分上の修正箇所となる候補を網羅的に求め、各行に修正箇所候補の位置611とスコア612と処理済フラグ613との組を設定したリスト614を生成して記憶部601に記憶する。その他の構成と動作は図6のスコア計算・位置検出手段312と同じである。   Referring to FIG. 18, the score calculation / position detection unit 1712 is the same as the first embodiment shown in FIG. 6 in that a third input unit 1801 is added and the function of the position determination unit 1802 is changed. This is different from the score calculation / position detection means 312. The third input unit 1801 inputs a correction completion notification 1601 sent from the recognition result correction unit 1604 and stores the final correction position 1811 included in this notification in the storage unit 601. The position determination unit 1802 reads the final correction position 1811 from the storage unit 601, reads the analysis result portion after the final correction position 1811 in the analysis result 132 of the storage unit 601, and becomes a candidate for a correction location on the analysis result portion. Are generated, and a list 614 in which a set of a correction location candidate position 611, a score 612, and a processed flag 613 is set in each row is generated and stored in the storage unit 601. Other configurations and operations are the same as the score calculation / position detection means 312 of FIG.

選択手段1703は、図17に示されるようにスコア比較手段1713と位置変換部1714とで構成される。これらの手段は図3に示した実施例1の選択手段303内のスコア比較手段313、位置変換部314と同じである。   As shown in FIG. 17, the selection unit 1703 includes a score comparison unit 1713 and a position conversion unit 1714. These means are the same as the score comparison means 313 and the position conversion unit 314 in the selection means 303 of the first embodiment shown in FIG.

認識結果修正手段1604の構成例を図19に示す。図19を参照すると、認識結果修正手段1604は、修正完了通知部1901が追加されている点で、図7に示した実施例1の認識結果修正手段144と相違する。修正完了通知部1901は、文字列操作部706から認識結果の修正位置を受け取り、認識結果133と分析結果132との対応関係に従って、認識結果上の修正位置を分析結果132上の修正位置に変換し、この変換後の修正位置を含む修正完了通知1601を複数修正箇所決定手段1603に送出する。その他の部分の構成と動作は図7の認識結果修正手段144と同じである。   A configuration example of the recognition result correcting unit 1604 is shown in FIG. Referring to FIG. 19, the recognition result correcting unit 1604 is different from the recognition result correcting unit 144 of the first embodiment illustrated in FIG. 7 in that a correction completion notification unit 1901 is added. The correction completion notification unit 1901 receives the correction position of the recognition result from the character string operation unit 706, and converts the correction position on the recognition result into the correction position on the analysis result 132 according to the correspondence relationship between the recognition result 133 and the analysis result 132. Then, a correction completion notification 1601 including the converted correction position is sent to a plurality of correction location determination means 1603. Other configurations and operations are the same as those of the recognition result correcting unit 144 of FIG.

次に、例えば「手に入らなかった滋養強壮剤や外用風邪薬」という音声の書き起こしを作成する際に使用する音声認識結果が、「手に入らなかった需要強壮ダイヤ外用風邪薬」となっており、利用者が”需要”を”滋養”に、”ダイヤ”を”剤や”に直すために、図2の正解文字列入力欄210に”滋養 剤や”を入力した以降の動作を、図20のフローチャートを参照して説明する。   Next, for example, the voice recognition result used when creating a transcript of the speech “Natural tonic or topical cold medicine not available” becomes “Demand tonic diamond topical cold medicine not available”. In order for the user to change “demand” to “nutrition” and “diamond” to “agent”, the operation after inputting “nutrient” in the correct character string input field 210 of FIG. This will be described with reference to the flowchart of FIG.

処理装置107の複数正解入力手段1602は、正解文字列入力欄210に正解文字列が入力されると、それを取り込み(図20のステップS2001)、空白を区切りとして先頭の正解文字列”滋養”を最初の処理対象に設定し、複数修正箇所決定手段1603に伝達する(ステップS2002)。複数修正箇所決定手段1603の検索手段1702における標準パタン作成手段1711は、”滋養”を音素列”j i y o o”に変換し、予め用意しておいた音素標準パタンをその順に並べて、”滋養”を表現する標準パタンを作成する(ステップS2003)。次に、スコア計算・位置検出手段1712は、”滋養”の標準パタンを入力し、この時点では修正完了通知1601で通知された最終修正位置はないので、記憶装置103に保持されていた分析結果132中の認識結果「手に入らなかった需要強壮ダイヤ外用風邪薬」のすべてを入力とし、この入力した分析結果の各部分を標準パタンに与えたときに正解文字列(滋養)を出力する確率(スコア)を計算する(ステップS2004)。この場合、標準パタンは”滋養”と発声されている部分(認識結果では”需要”と誤認識されている部分)の分析結果のところで最も高いスコアとなり、他の部分は低いスコアとなる。次に、選択手段1703のスコア比較手段1713は、予め閾値として用意しておいたスコアと比較を行い(ステップS2005)、位置変換部1714は閾値以上のスコアだった分析結果部分に対応する認識結果上の位置を修正位置として出力する。ここでは、閾値を満たすスコアは1つだけで、”滋養”と発声された部分(誤認識”需要”部分)のみだったとする。   When the correct character string is input to the correct character string input field 210, the plurality of correct answer input means 1602 of the processing device 107 fetches the correct character string (step S2001 in FIG. 20). Is set as the first processing target, and is transmitted to the multiple correction location determination means 1603 (step S2002). The standard pattern creation means 1711 in the search means 1702 of the multiple correction location determination means 1603 converts “nourishment” into a phoneme string “jiyoo”, arranges phoneme standard patterns prepared in advance in that order, and expresses “nourishment”. A standard pattern to be created is created (step S2003). Next, the score calculation / position detection unit 1712 inputs the standard pattern of “nourishment”, and since there is no final correction position notified by the correction completion notification 1601 at this time, the analysis result held in the storage device 103 Probability that correct character string (nourishment) is output when all recognition results in 132, “Demanded tonic diamond external cold medicine not available” are input and each part of the input analysis result is given to the standard pattern (Score) is calculated (step S2004). In this case, the standard pattern has the highest score in the analysis result of the part uttered as “nourishment” (the part erroneously recognized as “demand” in the recognition result), and the other part has a low score. Next, the score comparison unit 1713 of the selection unit 1703 compares the score prepared as a threshold value in advance (step S2005), and the position conversion unit 1714 recognizes the recognition result corresponding to the analysis result portion having a score equal to or higher than the threshold value. The upper position is output as the correction position. Here, it is assumed that there is only one score that satisfies the threshold, and only the portion that is pronounced “nourishment” (the misrecognized “demand” portion).

認識結果修正手段1604は、注目行表示欄203に表示した認識結果のうち、選択手段1703が出力した修正位置に相当する認識結果部分”需要”の部分にフォーカスを当て、利用者に修正位置を提示する(ステップS2006)。そして、利用者がOKボタン211をオンすると、フォーカスの当たっている認識結果の部分(誤認識結果”需要”)を正解文字列”滋養”に置換する(ステップS2007)。そして、認識結果修正手段1604は、置換後の”滋養”の直後の位置(”強”の直前)に対応する分析結果132上の位置を含む修正完了通知1601を複数修正箇所決定手段1603に送出し、複数修正箇所決定手段1603のスコア計算・位置検出手段1712は最終修正位置を更新する(ステップS2008)。   The recognition result correction unit 1604 focuses on the recognition result portion “demand” corresponding to the correction position output by the selection unit 1703 among the recognition results displayed in the attention line display field 203, and sets the correction position to the user. Present (step S2006). When the user turns on the OK button 211, the focused recognition result portion (misrecognition result “demand”) is replaced with the correct character string “nourishment” (step S2007). Then, the recognition result correction unit 1604 sends a correction completion notification 1601 including the position on the analysis result 132 corresponding to the position immediately after “nourishment” after replacement (immediately before “strong”) to the plurality of correction point determination unit 1603. Then, the score calculation / position detection means 1712 of the multiple correction location determination means 1603 updates the final correction position (step S2008).

複数正解入力手段1602は、次の順番の正解文字列”ダイヤ”を処理対象に設定し(ステップS2009、S2010)、複数修正箇所決定手段1603の検索手段1702における標準パタン作成手段1711は、”ダイヤ”を音素列”d a i y a”に変換してその標準パタンを作成する(ステップS2003)。次に、スコア計算・位置検出手段1712は、”ダイヤ”の標準パタンと、記憶装置103に保持されていた分析結果132中の認識結果「手に入らなかった需要強壮ダイヤ外用風邪薬」のうち修正完了通知1601によって通知された最終修正位置以降の「強壮ダイヤ外用風邪薬」を分析結果対象として、各分析結果部分を標準パタンに与えたときに正解文字列(滋養)を出力する確率(スコア)を計算する(ステップS2004)。この場合、標準パタンは”剤や”と発声されている部分(認識結果では”ダイヤ”と誤認識されている部分)の分析結果のところで最も高いスコアとなり、他の部分は低いスコアとなる。次に、選択手段1703のスコア比較手段1713は、閾値との比較を行い、位置変換部1714は閾値以上のスコアだった分析結果部分に対応する認識結果上の位置を修正位置として出力する。ここでは、”剤や”と発声された部分(誤認識”ダイヤ”部分)が修正位置として出力されたものとする。   The multiple correct answer input means 1602 sets the correct character string “diamond” in the next order as a processing target (steps S2009 and S2010), and the standard pattern creation means 1711 in the search means 1702 of the multiple correction location determination means 1603 "Is converted into a phoneme string" daiya "and its standard pattern is created (step S2003). Next, the score calculation / position detection means 1712 includes a standard pattern of “diamond” and a recognition result “analysis cold medicine for external use that is not available” in the analysis result 132 held in the storage device 103. Probability (score) of outputting a correct character string (nourishment) when each analysis result portion is given to the standard pattern with “tonic diamond external cold medicine” after the final correction position notified by the correction completion notification 1601 as the analysis result target ) Is calculated (step S2004). In this case, the standard pattern has the highest score in the analysis result of the part uttered as “agent” (the part erroneously recognized as “diamond” in the recognition result), and the other part has a low score. Next, the score comparison unit 1713 of the selection unit 1703 performs comparison with the threshold value, and the position conversion unit 1714 outputs the position on the recognition result corresponding to the analysis result portion having a score equal to or higher than the threshold value as the correction position. Here, it is assumed that a portion (a misrecognition “diamond” portion) uttered “agent” is output as a correction position.

認識結果修正手段1604は、注目行表示欄203に表示した認識結果のうち、選択手段1703が出力した修正位置に相当する認識結果部分”ダイヤ”の部分にフォーカスを当て、利用者に修正位置を提示する(ステップS2006)。そして、利用者がOKボタン211をオンすると、認識結果修正手段1604は、フォーカスの当たっている認識結果の部分(誤認識結果”ダイヤ”)を正解文字列”剤や”に置換する(ステップS2007)。そして、置換後の”剤や”の直後の位置(”外”の直前)に対応する分析結果132上の位置を含む修正完了通知1601を複数修正箇所決定手段1603に送出する(ステップS2008)。この時点で、複数正解入力手段1602が入力した全ての正解文字列”滋養”と”剤や”の処理が完了したので、図20の処理が終了する。この時点でスコア計算・位置検出手段1712が保持する最終修正位置はNULLにされる。   The recognition result correction unit 1604 focuses the recognition result portion “diamond” corresponding to the correction position output by the selection unit 1703 out of the recognition results displayed in the attention line display field 203, and sets the correction position to the user. Present (step S2006). When the user turns on the OK button 211, the recognition result correcting unit 1604 replaces the focused recognition result portion (misrecognition result “diamond”) with the correct character string “agent” (step S2007). ). Then, a correction completion notice 1601 including the position on the analysis result 132 corresponding to the position immediately after “agent” after replacement (immediately before “outside”) is sent to a plurality of correction location determination means 1603 (step S2008). At this point, since the processing of all correct character strings “nourishment” and “agent” input by the multiple correct answer input means 1602 is completed, the processing of FIG. 20 ends. At this time, the final correction position held by the score calculation / position detection means 1712 is set to NULL.

次に本実施例の効果を説明する。   Next, the effect of the present embodiment will be described.

注目行表示欄203に表示された認識結果中に複数の誤認識部分がある場合、出現した誤認識の順にそれぞれの正解文字列を入力すれば、先頭の正解文字列から順番に、正解文字列と発音が類似している認識結果部分が修正箇所に自動的に設定されるため、利用者自身が修正箇所を指定する手間が省け、利用者の負担を軽減することができる。また、2番目以降の正解文字列による修正箇所の検索は、その直前の修正で確定した修正箇所以降を対象に行われるため、修正箇所を精度よく且つ短時間で決定することができる。   When there are a plurality of misrecognized parts in the recognition result displayed in the attention line display field 203, if each correct character string is input in the order of the erroneous recognition that has appeared, the correct character string in order from the first correct character string. Since the recognition result portion having a similar pronunciation is automatically set as the correction location, the user himself / herself can save the trouble of specifying the correction location, and the burden on the user can be reduced. In addition, since the search for the corrected portion by the second and subsequent correct character strings is performed on the portion after the corrected portion determined by the correction immediately before that, the corrected portion can be determined accurately and in a short time.

本実施例の複数修正箇所決定手段1603は、正解文字列を音声の標準パタンに変換し、この標準パタンと記憶装置103上の分析結果132との音響的な類似性を判定したが、第1実施例の箇所で説明したものと同様の各種の変形が可能である。   The multiple correction location determination means 1603 of the present embodiment converts the correct character string into a voice standard pattern and determines the acoustic similarity between the standard pattern and the analysis result 132 on the storage device 103. Various modifications similar to those described in the Example section are possible.

また本実施例は、標準パタンを用いたマッチングにより修正箇所を決定したが、第2実施例と同様に正解文字列および認識結果を音素列や音節列に変換してマッチングをとることにより修正箇所を決定するようにしてもよい。   Further, in this embodiment, the correction portion is determined by matching using the standard pattern. However, as in the second embodiment, the correction character string and the recognition result are converted into a phoneme string or a syllable string, and matching is performed. May be determined.

以上本発明の実施の形態および実施例について説明したが、本発明は以上の例に限定されず、その他各種の付加変更が可能である。また、処理装置107あるいはそれを構成する修正箇所決定手段143や認識結果修正手段144などは、その有する機能をハードウェア的に実現することは勿論、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリ等のコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られ、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態および実施例における処理装置107あるいはそれを構成する修正箇所決定手段143や認識結果修正手段144などの各機能手段として機能させる。   Although the embodiments and examples of the present invention have been described above, the present invention is not limited to the above examples, and various other additions and modifications can be made. Further, the processing device 107 or the correction location determination means 143 and the recognition result correction means 144 constituting the processing apparatus 107 can be realized by a computer and a program as well as the functions of the processing apparatus 107 and hardware. The program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer at the time of starting up the computer, etc. And the processing device 107 in the embodiment and the example or the correction part determination unit 143 and the recognition result correction unit 144 constituting the processing unit 107 are caused to function.

本発明の第1の実施の形態のブロック図である。It is a block diagram of a 1st embodiment of the present invention. 本発明の第1の実施の形態において表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display apparatus in the 1st Embodiment of this invention. 本発明の実施例1における修正箇所決定手段のブロック図である。It is a block diagram of the correction location determination means in Example 1 of this invention. 本発明の実施例1における修正箇所決定手段内の標準パタン作成手段のブロック図である。It is a block diagram of the standard pattern preparation means in the correction location determination means in Example 1 of this invention. 正解文字列の音声標準パタンの作成例を示す図である。It is a figure which shows the example of creation of the voice standard pattern of a correct character string. 本発明の実施例1における修正箇所決定手段内のスコア計算・位置検出手段のブロック図である。It is a block diagram of the score calculation and position detection means in the correction location determination means in Example 1 of this invention. 本発明の実施例1における認識結果修正手段のブロック図である。It is a block diagram of the recognition result correction means in Example 1 of the present invention. 本発明の実施例1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of Example 1 of this invention. 本発明の実施例2における修正箇所決定手段のブロック図である。It is a block diagram of the correction location determination means in Example 2 of this invention. 本発明の実施例2における修正箇所決定手段内の文字列作成手段のブロック図である。It is a block diagram of the character string preparation means in the correction location determination means in Example 2 of this invention. 本発明の実施例2における修正箇所決定手段内のスコア計算・位置検出手段のブロック図である。It is a block diagram of the score calculation and position detection means in the correction location determination means in Example 2 of the present invention. 本発明の実施例2の動作を示すフローチャートである。It is a flowchart which shows operation | movement of Example 2 of this invention. 本発明の実施例3における修正箇所決定手段のブロック図である。It is a block diagram of the correction location determination means in Example 3 of this invention. 本発明の実施例3における修正箇所決定手段内の推定手段のブロック図である。It is a block diagram of the estimation means in the correction location determination means in Example 3 of this invention. 本発明の実施例3の動作を示すフローチャートである。It is a flowchart which shows operation | movement of Example 3 of this invention. 本発明の第2の実施の形態のブロック図である。It is a block diagram of the 2nd Embodiment of this invention. 本発明の実施例4における複数修正箇所決定手段のブロック図である。It is a block diagram of the multiple correction location determination means in Example 4 of this invention. 本発明の実施例4における複数修正箇所決定手段内のスコア計算・位置検出手段のブロック図である。It is a block diagram of the score calculation and position detection means in the multiple correction location determination means in Example 4 of the present invention. 本発明の実施例4における認識結果修正手段のブロック図である。It is a block diagram of the recognition result correction means in Example 4 of the present invention. 本発明の実施例4の動作を示すフローチャートである。It is a flowchart which shows operation | movement of Example 4 of this invention.

符号の説明Explanation of symbols

101…音声
102…音声認識装置
103…記憶装置
104…表示装置
105…スピーカ
106…キーボード
107…処理装置
111…音声入力手段
112…分析手段
113…照合手段
121…辞書
122…言語モデル
123…音響モデル
124…記憶装置
131…音声信号
132…分析結果
133…認識結果
141…表示再生部
142…正解入力手段
143…修正箇所決定手段
144…認識結果修正手段
145…認識結果表示手段
146…音声再生手段
DESCRIPTION OF SYMBOLS 101 ... Voice 102 ... Voice recognition device 103 ... Storage device 104 ... Display device 105 ... Speaker 106 ... Keyboard 107 ... Processing device 111 ... Speech input means 112 ... Analysis means 113 ... Collation means 121 ... Dictionary 122 ... Language model 123 ... Acoustic model 124 ... Storage device 131 ... Audio signal 132 ... Analysis result 133 ... Recognition result 141 ... Display / playback unit 142 ... Correct input means 143 ... Correction location determination means 144 ... Recognition result correction means 145 ... Recognition result display means 146 ... Voice reproduction means

Claims (17)

音声信号に対して音声認識処理を施して得られる音声認識結果を記憶する記憶手段と、
前記音声認識結果の認識誤り部分を修正するための正解文字列をキーボードから入力する正解入力手段と、
前記音声認識結果のうち前記正解文字列と発音が類似する文字列部分を修正箇所として検索する修正箇所決定手段と、
前記決定された修正箇所を前記正解文字列で置換する認識結果修正手段とを備えたことを特徴とする音声書き起こし支援装置。
Storage means for storing a speech recognition result obtained by performing speech recognition processing on the speech signal;
Correct input means for inputting a correct character string for correcting a recognition error part of the speech recognition result from a keyboard;
Correction location determination means for searching for a character string portion whose pronunciation is similar to the correct character string as a correction location in the speech recognition result;
A speech transcription support device, comprising: a recognition result correction unit that replaces the determined correction portion with the correct character string.
前記修正箇所決定手段は、前記正解文字列から作成した音声データと前記音声認識結果に対応する音声データとの間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする請求項1記載の音声書き起こし支援装置。   The correction location determination means searches for a character string portion whose pronunciation is similar to that of the correct character string by taking a match between the voice data created from the correct character string and the voice data corresponding to the voice recognition result. The speech transcription support apparatus according to claim 1, wherein: 前記正解文字列の音声データとして前記正解文字列から生成した音声標準パタンを使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する前記音声信号の分析結果を使用することを特徴とする請求項2記載の音声書き起こし支援装置。   The speech standard pattern generated from the correct character string is used as the speech data of the correct character string, and the analysis result of the speech signal corresponding to the speech recognition result is used as the speech data of the speech recognition result. The voice transcription support device according to claim 2. 前記正解文字列の音声データとして前記正解文字列から音声合成で生成した音声信号を使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する音声信号を使用することを特徴とする請求項2記載の音声書き起こし支援装置。   The speech signal generated by speech synthesis from the correct character string is used as the speech data of the correct character string, and the speech signal corresponding to the speech recognition result is used as the speech data of the speech recognition result. Item 2. The voice transcription support device according to Item 2. 前記修正箇所決定手段は、前記正解文字列から作成した音素列または音節列である文字列と前記音声認識結果から作成した音素列または音節列である文字列との間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする請求項1記載の音声書き起こし支援装置。   The correction location determination means performs matching between a character string that is a phoneme string or syllable string created from the correct character string and a character string that is a phoneme string or syllable string created from the speech recognition result, 2. The voice transcription assisting apparatus according to claim 1, wherein a character string portion whose pronunciation is similar to that of the correct character string is searched. 前記修正箇所決定手段は、前記正解文字列と発音が類似する文字列部分が前記音声認識結果に存在しない場合に、単語の接続制約を記述した言語モデルを用いて前記正解文字列が挿入される確率の高い位置を挿入位置として検索するものであり、前記認識結果修正手段は前記決定された挿入位置に前記正解文字列を挿入するものであることを特徴とする請求項1記載の音声書き起こし支援装置。   The correction location determination means inserts the correct character string using a language model describing word connection constraints when a character string portion whose pronunciation is similar to the correct character string does not exist in the speech recognition result. 2. The voice transcription according to claim 1, wherein a position having a high probability is searched as an insertion position, and the recognition result correcting means inserts the correct character string at the determined insertion position. Support device. 前記修正箇所決定手段は、キーボード入力された正解文字列の順序に従って修正箇所の検索を行い、前記認識結果修正手段で修正された修正位置に基づき検索範囲を逐次狭めるものであることを特徴とする請求項1記載の音声書き起こし支援装置。   The correction location determination means searches for a correction location according to the order of correct character strings input from the keyboard, and sequentially narrows the search range based on the correction position corrected by the recognition result correction means. The speech transcription support device according to claim 1. 表示再生部が、音声信号に対して音声認識処理を施して得られる音声認識結果を表示装置に表示し、
正解入力手段が、前記音声認識結果の認識誤り部分を修正するための正解文字列をキーボードから入力し、
修正箇所決定手段が、前記音声認識結果のうち前記正解文字列と発音が類似する文字列部分を修正箇所として検索し、
認識結果修正手段が、前記決定された修正箇所を前記正解文字列で置換することを特徴とする音声書き起こし支援方法。
The display / playback unit displays a voice recognition result obtained by performing voice recognition processing on the voice signal on the display device,
The correct input means inputs a correct character string for correcting the recognition error part of the speech recognition result from the keyboard,
The correction location determination means searches for a character string portion whose pronunciation is similar to the correct character string in the speech recognition result as a correction location,
A speech transcription support method, wherein a recognition result correction means replaces the determined correction portion with the correct character string.
音声信号に対して音声認識処理を施して得られる音声認識結果を記憶する記憶手段を備えたコンピュータを、
前記音声認識結果の認識誤り部分を修正するための正解文字列をキーボードから入力する正解入力手段、
前記音声認識結果のうち前記正解文字列と発音が類似する文字列部分を修正箇所として検索する修正箇所決定手段、
前記決定された修正箇所を前記正解文字列で置換する認識結果修正手段、
として機能させるためのプログラム。
A computer comprising storage means for storing a speech recognition result obtained by subjecting a speech signal to speech recognition processing;
Correct answer input means for inputting a correct character string for correcting a recognition error part of the speech recognition result from a keyboard;
A correction location determination means for searching a text string portion whose pronunciation is similar to the correct character string as a correction location in the speech recognition result;
Recognition result correction means for replacing the determined correction portion with the correct character string;
Program to function as.
前記修正箇所決定手段は、前記正解文字列から作成した音声データと前記音声認識結果に対応する音声データとの間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする請求項9記載のプログラム。   The correction location determination means searches for a character string portion whose pronunciation is similar to that of the correct character string by taking a match between the voice data created from the correct character string and the voice data corresponding to the voice recognition result. The program according to claim 9, wherein: 前記正解文字列の音声データとして前記正解文字列から生成した音声標準パタンを使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する前記音声信号の分析結果を使用することを特徴とする請求項10記載のプログラム。   The speech standard pattern generated from the correct character string is used as the speech data of the correct character string, and the analysis result of the speech signal corresponding to the speech recognition result is used as the speech data of the speech recognition result. The program according to claim 10. 前記正解文字列の音声データとして前記正解文字列から音声合成で生成した音声信号を使用し、前記音声認識結果の音声データとして前記音声認識結果に対応する音声信号を使用することを特徴とする請求項10記載のプログラム。   The speech signal generated by speech synthesis from the correct character string is used as the speech data of the correct character string, and the speech signal corresponding to the speech recognition result is used as the speech data of the speech recognition result. Item 10. The program according to item 10. 前記修正箇所決定手段は、前記正解文字列から作成した音素列または音節列である文字列と前記音声認識結果から作成した音素列または音節列である文字列との間でマッチングをとることにより、前記正解文字列と発音が類似する文字列部分を検索するものであることを特徴とする請求項9記載のプログラム。   The correction location determination means performs matching between a character string that is a phoneme string or syllable string created from the correct character string and a character string that is a phoneme string or syllable string created from the speech recognition result, The program according to claim 9, wherein the program searches for a character string portion whose pronunciation is similar to that of the correct character string. 前記修正箇所決定手段は、前記正解文字列と発音が類似する文字列部分が前記音声認識結果に存在しない場合に、単語の接続制約を記述した言語モデルを用いて前記正解文字列が挿入される確率の高い位置を挿入位置として検索するものであり、前記認識結果修正手段は前記決定された挿入位置に前記正解文字列を挿入するものであることを特徴とする請求項9記載のプログラム。   The correction location determination means inserts the correct character string using a language model describing word connection constraints when a character string portion whose pronunciation is similar to the correct character string does not exist in the speech recognition result. 10. The program according to claim 9, wherein a position having a high probability is searched as an insertion position, and the recognition result correcting means inserts the correct character string at the determined insertion position. 前記修正箇所決定手段は、キーボード入力された正解文字列の順序に従って修正箇所の検索を行い、前記認識結果修正手段で修正された修正位置に基づき検索範囲を逐次狭めるものであることを特徴とする請求項9記載のプログラム。   The correction location determination means searches for a correction location according to the order of correct character strings input from the keyboard, and sequentially narrows the search range based on the correction position corrected by the recognition result correction means. The program according to claim 9. 音声信号に対して音声認識処理を施して得られる音声認識結果の認識誤り部分を修正するためにキーボードから入力された正解文字列を音素列に変換して記憶部に記憶する音素列変換手段と、
前記記憶部から前記正解文字列の音素列を読み出し、各音素毎の標準パタンを記憶する標準パタン記憶部を検索して前記音素列を音声の標準パタンに変換し、前記記憶部に記憶する音素標準パタン変換手段と、
前記音声認識結果に対応する前記音声信号の分析結果上の修正箇所となる候補を網羅的に求め、各修正箇所候補の位置情報を前記記憶部に記憶する位置決定手段と、
前記記憶部から前記正解文字列の標準パタン、前記分析結果および前記各修正箇所候補の位置情報を読み出し、前記正解文字列の標準パタンが修正箇所候補の位置情報で特定される前記分析結果上の分析結果部分を出力する確率を各修正箇所候補毎に計算し、前記記憶部に記憶する確率計算手段と、
前記記憶部から各修正箇所候補毎に計算された前記確率を読み出して比較し、前記複数の修正箇所候補の中から修正箇所を選択して出力する選択手段とを備えたことを特徴とする修正箇所決定装置。
A phoneme string conversion means for converting a correct character string input from a keyboard into a phoneme string and storing it in a storage unit in order to correct a recognition error portion of a voice recognition result obtained by performing a voice recognition process on the voice signal; ,
A phoneme sequence of the correct character string is read from the storage unit, a standard pattern storage unit that stores a standard pattern for each phoneme is searched, the phoneme sequence is converted into a speech standard pattern, and the phoneme stored in the storage unit Standard pattern conversion means;
A position determination unit that comprehensively obtains candidates for correction points on the analysis result of the voice signal corresponding to the voice recognition result, and stores position information of each correction point candidate in the storage unit;
The standard pattern of the correct character string, the analysis result, and the position information of each correction part candidate are read from the storage unit, and the standard pattern of the correct character string is specified by the position information of the correction part candidate on the analysis result A probability calculating means for calculating the probability of outputting the analysis result part for each correction location candidate and storing it in the storage unit;
A correction unit comprising: a selecting unit that reads out and compares the probabilities calculated for each correction part candidate from the storage unit, and selects and outputs a correction part from the plurality of correction part candidates. Location determination device.
音声信号に対して音声認識処理を施して得られる音声認識結果の認識誤り部分を修正するためにキーボードから入力された正解文字列および前記音声認識結果の文字列のそれぞれを音素列または音節列に変換して記憶部に記憶する音素列変換手段と、
前記記憶部から前記音声認識結果の音素列または音節列を読み出し、その音素列または音節列上の修正箇所となる候補を網羅的に求め、各修正箇所候補の位置情報を前記記憶部に記憶する位置決定手段と、
前記記憶部から前記正解文字列および前記音声認識結果の音素列または音節列と前記各修正箇所候補の位置情報とを読み出し、修正箇所候補の位置情報で特定される前記音声認識結果の音素列または音節列上の部分と前記正解文字列の音素列または音節列との類似度を計算し、前記記憶部に記憶する類似度計算手段と、
前記記憶部から各修正箇所候補毎に計算された前記類似度を読み出して比較し、前記複数の修正箇所候補の中から修正箇所を選択して出力する選択手段とを備えたことを特徴とする修正箇所決定装置。
In order to correct a recognition error portion of a speech recognition result obtained by performing speech recognition processing on a speech signal, each of a correct character string input from the keyboard and the character string of the speech recognition result is converted into a phoneme string or a syllable string. Phoneme string conversion means for converting and storing in the storage unit;
The phoneme sequence or syllable string of the speech recognition result is read from the storage unit, candidates for correction locations on the phoneme sequence or syllable sequence are comprehensively determined, and position information of each correction location candidate is stored in the storage unit Positioning means;
The correct character string and the phoneme string or syllable string of the speech recognition result and the position information of each correction location candidate are read from the storage unit, and the phoneme sequence of the speech recognition result specified by the position information of the correction location candidate or Calculating a similarity between a part on a syllable string and a phoneme string or a syllable string of the correct character string, and storing the similarity in the storage unit;
And selecting means for reading out and comparing the degree of similarity calculated for each correction location candidate from the storage unit, and selecting and outputting a correction location from the plurality of correction location candidates. Correction point determination device.
JP2005083055A 2005-03-23 2005-03-23 Voice transcription support device, method and program thereof Active JP4784120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005083055A JP4784120B2 (en) 2005-03-23 2005-03-23 Voice transcription support device, method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005083055A JP4784120B2 (en) 2005-03-23 2005-03-23 Voice transcription support device, method and program thereof

Publications (2)

Publication Number Publication Date
JP2006267319A true JP2006267319A (en) 2006-10-05
JP4784120B2 JP4784120B2 (en) 2011-10-05

Family

ID=37203404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005083055A Active JP4784120B2 (en) 2005-03-23 2005-03-23 Voice transcription support device, method and program thereof

Country Status (1)

Country Link
JP (1) JP4784120B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109913A (en) * 2007-10-31 2009-05-21 Fujitsu Ltd Verification support device and computer program
JP2009145434A (en) * 2007-12-12 2009-07-02 O Chuhei Speech recognition system
JP2015227915A (en) * 2014-05-30 2015-12-17 富士通株式会社 Voice recognition apparatus, voice recognition method and voice recognition program
JP2016521383A (en) * 2014-04-22 2016-07-21 キューキー インコーポレイテッドKeukey Inc. Method, apparatus and computer readable recording medium for improving a set of at least one semantic unit
JP2017174172A (en) * 2016-03-24 2017-09-28 株式会社アドバンスト・メディア Display processing device and display processing program
KR101819459B1 (en) * 2016-08-17 2018-01-17 주식회사 소리자바 Voice recognition system and apparatus supporting voice recognition error correction
JP2018044993A (en) * 2016-09-12 2018-03-22 株式会社東芝 Correction system, correction method, and program
CN109697983A (en) * 2017-10-24 2019-04-30 上海赛趣网络科技有限公司 Automobile steel seal fast acquiring method, mobile terminal and storage medium
JP2020052262A (en) * 2018-09-27 2020-04-02 富士通株式会社 Correction candidate presentation method, correction candidate presentation program, and information processing device
JP2020052264A (en) * 2018-09-27 2020-04-02 富士通株式会社 Control method of voice reproduction segment, control program of voice reproduction segment, and information processing device
KR20220028211A (en) * 2020-08-28 2022-03-08 한국생산기술연구원 Method and Apparatus for Meal Assistance Using Interactive Interface
CN117292688A (en) * 2023-11-24 2023-12-26 深圳市华南英才科技有限公司 Control method based on intelligent voice mouse and intelligent voice mouse
JP7438447B1 (en) 2022-10-05 2024-02-26 東日本電信電話株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01237597A (en) * 1988-03-17 1989-09-22 Fujitsu Ltd Voice recognizing and correcting device
JPH10173769A (en) * 1996-12-13 1998-06-26 Matsushita Electric Ind Co Ltd Voice message retrieval device
JP2002312369A (en) * 2001-04-17 2002-10-25 Canon Inc Voice contents retrieval system, information processor and method therefor
JP2005503590A (en) * 2001-09-17 2005-02-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Correction of text recognized by speech recognition through comparison of speech sequences in recognized text with speech transcription of manually entered correction words

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01237597A (en) * 1988-03-17 1989-09-22 Fujitsu Ltd Voice recognizing and correcting device
JPH10173769A (en) * 1996-12-13 1998-06-26 Matsushita Electric Ind Co Ltd Voice message retrieval device
JP2002312369A (en) * 2001-04-17 2002-10-25 Canon Inc Voice contents retrieval system, information processor and method therefor
JP2005503590A (en) * 2001-09-17 2005-02-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Correction of text recognized by speech recognition through comparison of speech sequences in recognized text with speech transcription of manually entered correction words

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109913A (en) * 2007-10-31 2009-05-21 Fujitsu Ltd Verification support device and computer program
JP2009145434A (en) * 2007-12-12 2009-07-02 O Chuhei Speech recognition system
CN110675866A (en) * 2014-04-22 2020-01-10 纳宝株式会社 Method, apparatus and computer-readable recording medium for improving at least one semantic unit set
JP2016521383A (en) * 2014-04-22 2016-07-21 キューキー インコーポレイテッドKeukey Inc. Method, apparatus and computer readable recording medium for improving a set of at least one semantic unit
CN110675866B (en) * 2014-04-22 2023-09-29 纳宝株式会社 Method, apparatus and computer readable recording medium for improving at least one semantic unit set
JP2015227915A (en) * 2014-05-30 2015-12-17 富士通株式会社 Voice recognition apparatus, voice recognition method and voice recognition program
JP2017174172A (en) * 2016-03-24 2017-09-28 株式会社アドバンスト・メディア Display processing device and display processing program
KR101819459B1 (en) * 2016-08-17 2018-01-17 주식회사 소리자바 Voice recognition system and apparatus supporting voice recognition error correction
JP2018044993A (en) * 2016-09-12 2018-03-22 株式会社東芝 Correction system, correction method, and program
CN109697983A (en) * 2017-10-24 2019-04-30 上海赛趣网络科技有限公司 Automobile steel seal fast acquiring method, mobile terminal and storage medium
JP2020052262A (en) * 2018-09-27 2020-04-02 富士通株式会社 Correction candidate presentation method, correction candidate presentation program, and information processing device
JP2020052264A (en) * 2018-09-27 2020-04-02 富士通株式会社 Control method of voice reproduction segment, control program of voice reproduction segment, and information processing device
JP7159756B2 (en) 2018-09-27 2022-10-25 富士通株式会社 Audio playback interval control method, audio playback interval control program, and information processing device
JP7243106B2 (en) 2018-09-27 2023-03-22 富士通株式会社 Correction candidate presentation method, correction candidate presentation program, and information processing apparatus
KR20220028211A (en) * 2020-08-28 2022-03-08 한국생산기술연구원 Method and Apparatus for Meal Assistance Using Interactive Interface
KR102417457B1 (en) 2020-08-28 2022-07-06 한국생산기술연구원 Method and Apparatus for Meal Assistance Using Interactive Interface
JP7438447B1 (en) 2022-10-05 2024-02-26 東日本電信電話株式会社 Information processing device, information processing method, and information processing program
CN117292688A (en) * 2023-11-24 2023-12-26 深圳市华南英才科技有限公司 Control method based on intelligent voice mouse and intelligent voice mouse
CN117292688B (en) * 2023-11-24 2024-02-06 深圳市华南英才科技有限公司 Control method based on intelligent voice mouse and intelligent voice mouse

Also Published As

Publication number Publication date
JP4784120B2 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
JP4784120B2 (en) Voice transcription support device, method and program thereof
US7983912B2 (en) Apparatus, method, and computer program product for correcting a misrecognized utterance using a whole or a partial re-utterance
KR101537370B1 (en) System for grasping speech meaning of recording audio data based on keyword spotting, and indexing method and method thereof using the system
US8954329B2 (en) Methods and apparatus for acoustic disambiguation by insertion of disambiguating textual information
US20080270344A1 (en) Rich media content search engine
JP5824829B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
JPWO2008114811A1 (en) Information search system, information search method, and information search program
US8688725B2 (en) Search apparatus, search method, and program
JP5787780B2 (en) Transcription support system and transcription support method
JP2011002656A (en) Device for detection of voice recognition result correction candidate, voice transcribing support device, method, and program
JP5753769B2 (en) Voice data retrieval system and program therefor
CN116543762A (en) Acoustic model training using corrected terms
CN110675866B (en) Method, apparatus and computer readable recording medium for improving at least one semantic unit set
US8566091B2 (en) Speech recognition system
JP4736478B2 (en) Voice transcription support device, method and program thereof
JP2018045127A (en) Speech recognition computer program, speech recognition device, and speech recognition method
US20170270923A1 (en) Voice processing device and voice processing method
JP5396530B2 (en) Speech recognition apparatus and speech recognition method
JP5160594B2 (en) Speech recognition apparatus and speech recognition method
JP2001343992A (en) Method and device for learning voice pattern model, computer readable recording medium with voice pattern model learning program recorded, method and device for voice recognition, and computer readable recording medium with its program recorded
JPH10274996A (en) Voice recognition device
JP2013050605A (en) Language model switching device and program for the same
JP2011053312A (en) Adaptive acoustic model generating device and program
JP2009031328A (en) Speech recognition device
JP5196114B2 (en) Speech recognition apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090715

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R150 Certificate of patent or registration of utility model

Ref document number: 4784120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3