JPS58156998A - Information input unit - Google Patents

Information input unit

Info

Publication number
JPS58156998A
JPS58156998A JP57039013A JP3901382A JPS58156998A JP S58156998 A JPS58156998 A JP S58156998A JP 57039013 A JP57039013 A JP 57039013A JP 3901382 A JP3901382 A JP 3901382A JP S58156998 A JPS58156998 A JP S58156998A
Authority
JP
Japan
Prior art keywords
section
standard
pattern
dictionary
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP57039013A
Other languages
Japanese (ja)
Other versions
JPH0415960B2 (en
Inventor
吉田 和永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP57039013A priority Critical patent/JPS58156998A/en
Publication of JPS58156998A publication Critical patent/JPS58156998A/en
Publication of JPH0415960B2 publication Critical patent/JPH0415960B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 本発明は情報入力装置、 411ζ音韻単位に発声され
た音声や手書き文字などのように人間lζより発生され
た情報を1機械に入力する情報入力装置に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an information input device, and an information input device for inputting information generated by a human being, such as speech uttered in 411ζ phoneme units and handwritten characters, into a single machine.

本発明による情報入力装置は入力される情報が音声でも
手書き文字でも適用可能である。しかし以後の説明にお
いては分かりやすくするために音声番とよる入力の場合
についてのみ述べる。またここで言う入力情報の単位は
、以後の説明においては「あ」「い」「う」「え」「お
コなどの日本語の単音節とする。
The information input device according to the present invention can be applied whether the input information is voice or handwritten characters. However, in the following explanation, for the sake of clarity, only the case of input using voice numbers will be described. Furthermore, in the following explanation, the units of input information referred to here are Japanese monosyllables such as "a", "i", "u", "e", and "oko".

従来、単音節単位に区切って発声された音声を認識する
音声入力装置はすでに存在する。この一つの例としてあ
らかじめ発声された単音節を標準バタンとして登碌して
おき、入力された単音節との間のバタンマツチングによ
り認識を行なう方法が提案されている。このような登鎌
型の音声入力装置番ごおいては標準パタンの選択が重要
である。
2. Description of the Related Art Conventionally, there already exist speech input devices that recognize speech uttered in units of monosyllables. As an example of this, a method has been proposed in which a monosyllable uttered in advance is registered as a standard bang, and recognition is performed by matching the monosyllable with the input monosyllable. Selection of a standard pattern is important for such a sickle-type voice input device number.

登録時に不適轟に発声された場合や、登録時から時間が
たって実際の発声と標準バタンとか異なってしまう場合
がある。この影響を除くためKは、入力された最新の音
声をもとにした標準バタンの自動学習が有効である。認
識誤りが生じた場合、利用者が必ず訂正するようにすれ
ば°入力された音声パタンをもとに標準パタンを更新す
ることができる。しかし、特番こ単音節の場合は利用者
が誤りを見のがすおそれがあるため、このように更新す
ることは誤った音声パタンを標準パタンとしてしIう可
能性がある。
There are cases where the sound is inappropriately uttered at the time of registration, or the actual utterance may differ from the standard bang after some time has passed since registration. In order to eliminate this influence, it is effective for K to automatically learn standard bangs based on the latest input voice. If a recognition error occurs, if the user makes sure to correct it, the standard pattern can be updated based on the input voice pattern. However, in the case of a special number with a single syllable, there is a risk that the user may overlook the error, so updating in this manner may result in an incorrect speech pattern being set as the standard pattern.

本発明の目的は利用者がたとえば音声の場合、単音節単
位の訂正を行なわなくても標準パタンを正しく、新しい
音声パタンをもとに更新できるような情報入力装置を提
供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an information input device that allows a user to correctly update a standard pattern based on a new speech pattern without having to correct a single syllable in the case of speech, for example.

本発明は入力された音声・手書き文字などの情報をある
定められた単位毎にあらかじめ登録された標準パタンを
もとに認識し認識結果を出力する認識部と、前記定めら
れた単位の列として単語が記憶されている単語辞書部と
、前記辞書部の内容と前記[i*結果をマツチングし単
語認識結果を得る辞書マツチング部と、前記単語認識結
果より着の判断結果をもとに前記標準パタンの更新を指
示する更新指示部とを含んで構成される。
The present invention includes a recognition unit that recognizes input information such as voice and handwritten characters based on a standard pattern registered in advance for each predetermined unit, and outputs a recognition result, and a word dictionary section in which words are stored; a dictionary matching section that matches the contents of the dictionary section with the above-mentioned [i* results to obtain a word recognition result; and an update instruction section for instructing pattern update.

以下具体的な一実施例に基づいて本発明の詳細な説明す
る。篤1図は本発明の一実施例のブロック構成図である
。図に於いてlはマイクロフォン、2は分析部、3は認
識部としての音声マツチング部、4は標準バタンメモリ
部、5は辞書マツチング部、6は単語辞書部、7は更新
指示部である。
The present invention will be described in detail below based on a specific example. Figure 1 is a block diagram of an embodiment of the present invention. In the figure, l is a microphone, 2 is an analysis section, 3 is a voice matching section as a recognition section, 4 is a standard button memory section, 5 is a dictionary matching section, 6 is a word dictionary section, and 7 is an update instruction section.

マイクロフォン1より入力された単音節は分析部2にお
いて分析され音声パタンPとして出力される。同時に音
声パタンPは分析部2に保持される。
A monosyllable input through the microphone 1 is analyzed by the analysis section 2 and output as a speech pattern P. At the same time, the voice pattern P is held in the analysis section 2.

音声パタンPは音声マツチング部3において標準バタン
メモリ部4の中に記憶されている標準パタンRとマツチ
ングされる。単音節単位の認識結果Mは確からしさのJ
llこ上位数位の結果が確からしさの値すなわち類似度
とともに出力される。通常単音節の認識結果は上位3位
程度の中に99%以上正しい結果がはいるので出力され
る結果はこの鴇度の数でよい。
The voice pattern P is matched with the standard pattern R stored in the standard button memory section 4 in the voice matching section 3. The monosyllabic recognition result M is the certainty J
The top-ranked results are output together with a likelihood value, that is, a degree of similarity. Normally, the recognition results for monosyllables have 99% or more correct results in the top three or so, so the results to be outputted may be of this number.

辞書マツチング部Sでは前記認識結果Mと単語辞書部6
の内容をマツチングして単語認識結果Wを出力する。こ
こで言う単語とは通常の単@#C@らずいくつかの単音
節の連続という意味であり、フレーズ等も含むものであ
る。辞書マツチング部5に1単語分の単音節の認識結果
が入力されると、まず単語辞書部6の中の単語のうち文
字数の一致するものを選択し読み出す、、、認識結果の
単音節列と単語辞書内の単語の単音節列とを比較し、一
致した単音節における類似度の合計をその単語の類似度
とする。この類似度が最大となる単語を単語認識結果と
する。
The dictionary matching unit S uses the recognition result M and the word dictionary unit 6.
The word recognition result W is output by matching the contents of . The term word here does not mean the usual single @#C@, but a series of several monosyllables, and also includes phrases. When the recognition result of one word of monosyllables is input to the dictionary matching section 5, first, the word with the matching number of characters is selected and read out from the word dictionary section 6. The word in the word dictionary is compared with a monosyllable string, and the sum of the similarities in the matched monosyllables is taken as the similarity of the word. The word with the highest degree of similarity is taken as the word recognition result.

の−例を第2図に示す。類似度は大きいほうがより近い
とする。この場合、単語「かながわ」と「かなざわ」の
類似度は前者がgo+so+so+s。
An example of this is shown in FIG. It is assumed that the larger the degree of similarity, the closer. In this case, the similarity between the words "Kanagawa" and "Kanazawa" is go+so+so+s for the former.

−2’eo後者は8G+SO+10+80−2201?
あるため、類似度のより大きい「かながわ」が認識結果
となる。
-2'eo the latter is 8G+SO+10+80-2201?
Therefore, the recognition result is "Kanagawa", which has a higher degree of similarity.

この例によると2番目の「な」が「ま」に誤っているこ
とを検出することができる。辞書マツチング5からのこ
のような結果信号DBをもとに。
According to this example, it is possible to detect that the second ``na'' is mistaken for ``ma''. Based on such a result signal DB from dictionary matching 5.

更新指示部7より標準バタンメモリ部4内の標準パタン
を更新する指示信号Cを出力する。すなわち、すでに標
準バタンメモリ部4の内にある「な」の標準パタンのか
わりに、今回入力され、分析部2に保持されている音声
パタンPのうちの「な」のパタンを標準パタンとして標
準バタンメモリ部4で保持する。
The update instruction section 7 outputs an instruction signal C for updating the standard pattern in the standard button memory section 4. That is, instead of the standard pattern for "na" that is already in the standard button memory section 4, the pattern for "na" among the voice patterns P input this time and stored in the analysis section 2 is used as the standard pattern. It is held in the button memory section 4.

標準パタンの更新方法としては上記の方法の他にもいく
つかの方法が考えられる。たとえば、各単音節の標準パ
タンごとにカウンタを設ける。辞書とのマツチング番こ
より単音節の認識誤りが検出された場合、誤認識した標
準パタンの前記カウンタをカウントアツプする。標準パ
タンごとの誤認識の数がある定められた回数以上にな、
った時、Cの標準パタンを新しいパタンにより更新する
という方法がある。標準パタンの更新は新しいバタンと
入れかえる方法の他に、入力されたバタンと標準バタン
との平均をとることkより新たに標準バタンを作成する
方法も考えられる。
In addition to the above methods, several other methods can be considered for updating the standard pattern. For example, a counter is provided for each standard pattern of each monosyllable. When a recognition error of a single syllable is detected from the matching number with the dictionary, the counter of the erroneously recognized standard pattern is counted up. When the number of misrecognitions for each standard pattern exceeds a certain number of times,
When this occurs, there is a method of updating the standard C pattern with a new pattern. In addition to the method of updating the standard pattern by replacing it with a new one, there is also a method of creating a new standard pattern by taking the average of the inputted pattern and the standard pattern.

このように、以上述べてきた実施例は説明の便宜上選択
したほんの一例であって本発明はこの実施例のみに限定
されるものではない。入力された単音節列と辞書とのマ
ツチジグ方法も他のさまざまな方法が考えられる。
As described above, the embodiments described above are only examples selected for convenience of explanation, and the present invention is not limited to these embodiments. Various other methods can be considered for matching the input monosyllable string with the dictionary.

最初に述べたように本発明は手書き文字入力にも適用で
きる。この場合単音節のかわりに1つの文字を単位とす
ればよい。オンライン手書き文字認識等は標準パタンと
のバタンマツチング法も有効であると考えられるので本
発明を適用することができる。
As mentioned at the beginning, the present invention can also be applied to handwritten character input. In this case, one character may be used as a unit instead of a single syllable. The present invention can be applied to online handwritten character recognition, etc., since it is considered that the slam matching method with standard patterns is also effective.

本発明によると、音声や文字の認識において、定められ
た単位の標準パタンを正しいバタンに更新できる、情報
入力装置が得られる。
According to the present invention, it is possible to obtain an information input device that can update a standard pattern of a predetermined unit to a correct button in speech and character recognition.

【図面の簡単な説明】[Brief explanation of the drawing]

て示した図である。 FIG.

Claims (1)

【特許請求の範囲】[Claims] 入力された音声・手書き文字などの情報をある定められ
た単位毎にあらかじめ登[8れた標準バタンをもとに認
識しam結果を出力する認識部と、前記定められた単位
の列として単語が記憶されている単語辞書部と、前記辞
書部の内容と前配認繊結果をマツチングし単語認識結果
を得る辞書マツチング部と、前記単語認識結果より前記
定められた単位毎の認識結果の正誤を判断しこの判断結
果をもと番こ前記標準パタンの更新を指示する更新指示
部とを含むことを特徴とする情報入力装置。
A recognition unit that registers input information such as voice and handwritten characters in predetermined units [8] based on the predetermined standard button and outputs the am result, and a recognition unit that outputs the am result as a string of the predetermined units. a word dictionary section in which words are stored; a dictionary matching section that matches the contents of the dictionary section with the pre-distributed fiber results to obtain word recognition results; An information input device comprising: an update instruction unit that determines the standard pattern and instructs updating of the standard pattern based on the determination result.
JP57039013A 1982-03-12 1982-03-12 Information input unit Granted JPS58156998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57039013A JPS58156998A (en) 1982-03-12 1982-03-12 Information input unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57039013A JPS58156998A (en) 1982-03-12 1982-03-12 Information input unit

Publications (2)

Publication Number Publication Date
JPS58156998A true JPS58156998A (en) 1983-09-19
JPH0415960B2 JPH0415960B2 (en) 1992-03-19

Family

ID=12541216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57039013A Granted JPS58156998A (en) 1982-03-12 1982-03-12 Information input unit

Country Status (1)

Country Link
JP (1) JPS58156998A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60107192A (en) * 1983-11-16 1985-06-12 Toshiba Corp Pattern recognizing device
JP2014149457A (en) * 2013-02-01 2014-08-21 Sharp Corp Voice recognition device, electronic apparatus, and control program of voice recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60107192A (en) * 1983-11-16 1985-06-12 Toshiba Corp Pattern recognizing device
JP2014149457A (en) * 2013-02-01 2014-08-21 Sharp Corp Voice recognition device, electronic apparatus, and control program of voice recognition device

Also Published As

Publication number Publication date
JPH0415960B2 (en) 1992-03-19

Similar Documents

Publication Publication Date Title
US4653097A (en) Individual verification apparatus
JPH01501977A (en) language translation system
US4769844A (en) Voice recognition system having a check scheme for registration of reference data
EP1126438A1 (en) Speech recognizer
EP0949606B1 (en) Method and system for speech recognition based on phonetic transcriptions
JP2002132287A (en) Speech recording method and speech recorder as well as memory medium
US20170270923A1 (en) Voice processing device and voice processing method
KR20130126570A (en) Apparatus for discriminative training acoustic model considering error of phonemes in keyword and computer recordable medium storing the method thereof
JPS58156998A (en) Information input unit
JP4220151B2 (en) Spoken dialogue device
JP2002278579A (en) Voice data retrieving device
EP0987681B1 (en) Speech recognition method and apparatus
KR101869016B1 (en) Method and apparatus for extracting character
JP3039453B2 (en) Voice recognition device
JPS63153596A (en) Voice sentence input device
JP2528105B2 (en) Voice recognition device
JPS63173098A (en) Voice recognition equipment
JPS62245295A (en) Specified speaker's voice recognition equipment
JPS63153595A (en) Voice sentence input device
Tappert Adaptive control of the interaction of segmentation and pattern classification: A pilot study applied to automatic recognition of continuous speech
JP2000315095A (en) Device and method for voice recognition and recording medium in which voice recognition control program is stored
JPH0719158B2 (en) Speaker adaptation method of phoneme transformation rule
Besler Improving the continuous speech control of Lotus system using error recognition/error recovery techniques
JPS62127799A (en) Voice typewriter
JPH0289100A (en) Voice recognizing device