JPH0374426B2 - - Google Patents

Info

Publication number
JPH0374426B2
JPH0374426B2 JP59246843A JP24684384A JPH0374426B2 JP H0374426 B2 JPH0374426 B2 JP H0374426B2 JP 59246843 A JP59246843 A JP 59246843A JP 24684384 A JP24684384 A JP 24684384A JP H0374426 B2 JPH0374426 B2 JP H0374426B2
Authority
JP
Japan
Prior art keywords
syllable
display
instruction
speech
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59246843A
Other languages
Japanese (ja)
Other versions
JPS61125676A (en
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to JP59246843A priority Critical patent/JPS61125676A/en
Publication of JPS61125676A publication Critical patent/JPS61125676A/en
Publication of JPH0374426B2 publication Critical patent/JPH0374426B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は音声ワードプロセツサ、特に、例えば
音声により入力された文章データを表示する際
に、その入力の確からしさに対応した複数種の表
示形態により表示するなどして、次の操作によつ
て起こる変化ないし効果を、操作者が予想できる
ようにし、効率的な文書作成を可能とした音声ワ
ードプロセツサに関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an audio word processor, and in particular, to a plurality of types of displays corresponding to the certainty of the input when displaying text data input by voice, for example. The present invention relates to an audio word processor that allows an operator to predict the changes or effects that will occur due to the next operation by displaying them in different formats, thereby making it possible to efficiently create documents.

〔従来の技術と問題点〕[Conventional technology and problems]

最近、音声認識の技術が実用化の段階に入り、
日本語ワードプロセツサの入力を、音声入力で行
うことが考慮されている。
Recently, voice recognition technology has entered the stage of practical application.
Consideration is being given to inputting data into a Japanese word processor using voice input.

このような音声ワードプロセツサでは、文章デ
ータの読み上げ音声について音声認識を行う部分
と、仮名漢字変換を処理する部分とは、一般に独
立に設けられ、音声認識する部分から仮名漢字変
換を処理する部分に対して、子音(C)/母音(V)
の組合わせからなるCV音節候補系列に関するデ
ータが引き渡される。そして、候補となる音節の
組合わせによる曖昧文字列について、単語辞書と
照合することにより、不適正な文字列を排除し、
適正な文字列をデイスプレイに順次表示するよう
にされる。特に適正文字の摘出にあたつては、同
時に仮名漢字変換がなされることが多い。
In such voice word processors, the part that performs voice recognition of the audio reading text data and the part that processes kana-kanji conversion are generally installed independently, and the part that processes kana-kanji conversion starts from the voice recognition part. Consonant (C) / Vowel (V)
Data regarding CV syllable candidate sequences consisting of combinations of are delivered. Then, by comparing ambiguous character strings made up of candidate syllable combinations with a word dictionary, invalid character strings are eliminated,
Appropriate character strings are sequentially displayed on the display. In particular, when extracting appropriate characters, kana-kanji conversion is often performed at the same time.

しかし、従来方式によれば、曖昧文字列から得
られた適正文字系列の読みまたはその漢字変換結
果が、所定の優先順位でもつて順次表示されてい
くものの、操作者にとつてみれば、次に表示され
る内容が全く予想できず、従つて、先頭の候補か
ら正解に達するまで順番に表示していかなければ
ならないという問題があつた。特に、不明瞭に発
声された入力の場合等には、再入力し直したほう
がよいか、または変換修正を行つたほうがよいか
などについての情報が得られないため、その時点
における最善の操作を選択できないという問題が
あつた。
However, according to the conventional method, although the reading of the proper character sequence obtained from the ambiguous character string or the result of its kanji conversion is displayed sequentially in a predetermined priority order, from the operator's point of view, it is difficult to There was a problem in that it was impossible to predict what would be displayed, and the candidates had to be displayed in order, starting from the first candidate until the correct answer was reached. In particular, in the case of input that is unclearly uttered, it is not possible to obtain information on whether it is better to re-enter the input or make corrections to the conversion, so the best operation at that time is not available. I had a problem with not being able to choose.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は上記問題点の解決を図り、操作者が選
択し得る複数の指示操作に対し、その結果を予想
可能とする情報を入力文字列の読みまたはその漢
字変換結果と共に表示し、最適な指示を選択し
て、迅速に日本語文書を作成できるようにしてい
る。
The present invention aims to solve the above-mentioned problems, and displays information that makes it possible to predict the results of a plurality of instruction operations that the operator can select, together with the reading of the input character string or the result of its kanji conversion, to provide the optimal instruction. By selecting , you can quickly create Japanese documents.

即ち、本発明の音声ワードプロセツサは、文章
データの入力について、該データの読み上げ音声
を音声認識に基づきCV音節候補系列に変換し、
該系列に対し辞書照合を用いた仮名漢字変換処理
によつて日本語文書を作成する音声ワードプロセ
ツサにおいて、入力音声の特徴パラメータを抽出
するパラメータ抽出部と、該パラメータ抽出部が
抽出した特徴パラメータに基づいて予め辞書に格
納された標準パターンと照合することにより候補
となる音節系列を選出する音声認識部と、各適正
文字に関する情報が登録された単語辞書と、上記
音声認識部による認識結果に基づいて生成される
曖昧文字列について上記単語辞書を検索し適正文
字を抽出する辞書照合部と、少なくとも音声再入
力指示、読み取替え指示および漢字取替え指示を
含む指示に対する入力操作を検出し指示内容に関
する制御を行う指示制御部と、次に選択される上
記入力操作に対して変化する表示内容を予測させ
る情報を表示する表示選択部とを備えたことを特
徴としている。以下、図面を参照しつつ、実施例
に従つて説明する。
That is, when inputting text data, the audio word processor of the present invention converts the reading voice of the data into a CV syllable candidate series based on voice recognition,
A voice word processor that creates a Japanese document by performing kana-kanji conversion processing using dictionary matching on the sequence includes a parameter extraction unit that extracts feature parameters of input speech, and feature parameters extracted by the parameter extraction unit. a speech recognition unit that selects candidate syllable sequences by comparing them with standard patterns previously stored in a dictionary based on a dictionary collation unit that searches the word dictionary for ambiguous character strings generated based on the above and extracts appropriate characters; and a dictionary matching unit that searches the word dictionary for ambiguous character strings generated based on the above and extracts appropriate characters; The present invention is characterized by comprising an instruction control unit that performs control, and a display selection unit that displays information that predicts the display content that will change in response to the input operation that will be selected next. Hereinafter, embodiments will be described with reference to the drawings.

〔実施例〕〔Example〕

第1図は本発明の一実施例ブロツク図、第2図
は第1図図示表示選択部による処理の例、第3図
は音節種類数のカウント範囲を説明する図、第4
図は本発明の実施例による表示態様を説明する
図、第5図は本発明の他の実施例による表示態様
を説明する図、第6図は読みの変化部分を予告す
る表示の説明図、第7図は漢字の変化を予告する
表示の説明図を示す。
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is an example of processing by the graphical display selection unit shown in FIG. 1, FIG. 3 is a diagram explaining the counting range of the number of syllable types,
FIG. 5 is a diagram explaining a display mode according to an embodiment of the present invention, FIG. 5 is a diagram explaining a display mode according to another embodiment of the present invention, FIG. FIG. 7 shows an explanatory diagram of a display that foretells a change in kanji.

第1図において、符号1は音声を入力するマイ
ク、2は音声パラメータ抽出部、3は音声の特徴
パラメータに関する標準パターンが格納された音
声辞書、4は連続音声認識または離散音声認識を
行う音声認識部、5は音声認識部4による認識結
果が格納される音節ラテイス記憶部、6は音節ラ
テイス記憶部5に記憶された候補となる音節の組
合わせによる曖昧文字列を生成し変換対象を選択
する変換対象選択部、7は適正文字への変換の対
象となる曖昧文字列が格納される曖昧文字列バツ
フア、8は読みと漢字混じりの適正文字とが予め
登録された単語辞書、9は辞書照合部、10は指
示操作に対する制御を行う指示制御部、11はキ
ーボード、12は例えばマウス等の画面ポインテ
イング装置、13は辞書照合部9による照合結果
を記憶する照合結果記憶部、14は次の操作に対
する変化を予測させる表示形態により照合結果を
表示する制御を行う表示選択部、15はデイスプ
レイ、16はデイスプレイ画面における読み表示
領域、17は照合結果が表示される漢字表示領域
を表す。
In FIG. 1, reference numeral 1 denotes a microphone for inputting voice, 2 denotes a voice parameter extraction unit, 3 denotes a voice dictionary storing standard patterns related to voice characteristic parameters, and 4 denotes a voice recognition unit that performs continuous voice recognition or discrete voice recognition. 5 is a syllable latex storage unit in which the recognition result by the speech recognition unit 4 is stored; 6 is a syllable latex storage unit that generates ambiguous character strings based on combinations of candidate syllables stored in the syllable latex storage unit 5 and selects a conversion target. Conversion target selection section, 7 is an ambiguous character string buffer where ambiguous character strings to be converted into proper characters are stored, 8 is a word dictionary in which proper characters mixed with readings and kanji are registered in advance, 9 is a dictionary check 10 is an instruction control unit that controls instruction operations; 11 is a keyboard; 12 is a screen pointing device such as a mouse; 13 is a collation result storage unit that stores the collation results from the dictionary collation unit 9; A display selection section controls the display of the matching results in a display format that predicts changes in response to operations; 15 is a display; 16 is a reading display area on the display screen; 17 is a kanji display area in which the matching results are displayed.

マイク1から、文章データを読み上げた音声が
入力されると、音声パラメータ抽出部2によつ
て、スペクトル情報等に関する音声の特徴パラメ
ータ時系列が抽出される。音声認識部4は、音声
パラメータ抽出部2が抽出した未知入力音声の特
徴パラメータと、音声辞書3に例えば単音節単位
に格納されている標準パターンとを、例えばDP
マツチング法等により照合し、認識結果である
CV音節候補系列を、候補順位に従つて、音節ラ
テイス記憶部5に格納する。なお、候補となる各
音節毎の標準パターンとの距離情報についても対
応させて格納する。
When the voice that reads text data is input from the microphone 1, the voice parameter extraction unit 2 extracts a time series of voice characteristic parameters related to spectrum information and the like. The speech recognition section 4 converts the characteristic parameters of the unknown input speech extracted by the speech parameter extraction section 2 and the standard patterns stored in the speech dictionary 3, for example, in units of monosyllables, into a DP, for example.
This is the recognition result after matching using matching method etc.
The CV syllable candidate series is stored in the syllable latex storage unit 5 according to the candidate ranking. Note that distance information between each candidate syllable and the standard pattern is also stored in correspondence.

変換対象選択部6は、音節ラテイス記憶部5に
格納された音声認識結果に基づいて、各候補とな
る音節を組合わせることにより、曖昧文字列を生
成し、曖昧文字列バツフア7に格納する。各候補
音節の組合わせは、例えば各音節の標準パターン
との距離の総和が最小となるものから順に、所定
の距離内にあるもの、または所定の個数分だけ選
択されるようになつている。また、必要に応じ
て、例えば“wa”の発音を「は」に、“e”の発
音を「へ」に読替えるというように、所定の読替
え規則による曖昧文字列も組入れられる。曖昧文
字列バツフア7に格納された曖昧文字列は、順
次、変換対象選択部6によつて選択され、辞書照
合部9へ引き渡される。
The conversion target selection unit 6 generates an ambiguous character string by combining candidate syllables based on the speech recognition results stored in the syllable latex storage unit 5, and stores the ambiguous character string in an ambiguous character string buffer 7. Combinations of candidate syllables are selected such that, for example, those within a predetermined distance or a predetermined number of combinations are selected in the order of the minimum sum of distances from the standard pattern of each syllable. Furthermore, if necessary, ambiguous character strings based on predetermined reading change rules may be incorporated, such as changing the pronunciation of "wa" to "ha" and the pronunciation of "e" to "he". The ambiguous character strings stored in the ambiguous character string buffer 7 are sequentially selected by the conversion target selection section 6 and delivered to the dictionary collation section 9.

辞書照合部9は、渡された曖昧文字列につい
て、必要に応じて適当な文字列に区切り、その読
みをキーとして、単語辞書8を検索する。単語辞
書8には、予め適正な文字についての読みと、そ
の読みに対応する漢字を含む適正文字ないし単語
が登録されている。単語辞書8に求める適正文字
等があると、その照合結果を照合結果記憶部13
に順次格納する。
The dictionary collation unit 9 divides the passed ambiguous character string into appropriate character strings as necessary, and searches the word dictionary 8 using the pronunciation as a key. In the word dictionary 8, proper characters or words including proper readings of characters and kanji characters corresponding to the readings are registered in advance. When the word dictionary 8 contains appropriate characters, etc., the matching results are stored in the matching result storage section 13.
Stored sequentially in .

表示選択部14は、照合結果記憶部13に格納
された各照合結果について、デイスプレイ15の
画面に表示する。このとき、後述するような各種
表示形態により、操作者が次にどのような操作を
すれば、効率のよい最適な結果を得ることができ
るかについての判断材料を呈示する。デイスプレ
イ画面の読み表示領域16には、選択された曖昧
文字列についての読みが表示され、漢字表示領域
17には、その仮名漢字変換結果が表示される。
なお、読み表示領域16および漢字表示領域17
は、必ずしもデイスプレイ画面における固定領域
である必要はない。
The display selection section 14 displays each verification result stored in the verification result storage section 13 on the screen of the display 15. At this time, various display forms as described later are used to present information for determining what operation the operator should perform next to obtain an efficient and optimal result. The reading display area 16 of the display screen displays the reading of the selected ambiguous character string, and the kanji display area 17 displays the result of the kana-kanji conversion.
Note that the reading display area 16 and the kanji display area 17
does not necessarily have to be a fixed area on the display screen.

指示制御部10は、例えばキーボード11や、
いわゆるマウス等の画面ポインテイング装置12
からの入力によつて、例えば読み表示領域16に
表示された読みを取替える指示、漢字変換を繰り
返す指示、現在の入力を取消し音声の再入力を行
う旨の指示などを、変換対象選択部6、辞書照合
部9または表示選択部14などに通知する処理を
行うものである。即ち、操作者は、音声入力され
た文章データをどう扱うかについて、指示制御部
10を介して、選択できるようになつている。
The instruction control unit 10 includes, for example, a keyboard 11,
Screen pointing device 12 such as a so-called mouse
The conversion target selection unit 6 receives, for example, an instruction to change the reading displayed in the reading display area 16, an instruction to repeat kanji conversion, an instruction to cancel the current input and re-input the voice, etc. It performs a process of notifying the dictionary collation unit 9, display selection unit 14, etc. That is, the operator can select, via the instruction control unit 10, how to handle text data input by voice.

次に第2図ないし第4図に従つて、入力された
文章データを表示する際に、表示音節について、
その入力の確からしさに対応した複数種の表示形
態により表示する例を説明する。この例では、入
力の確からしさに関する情報として、表示予定音
節系列中における音節の異なる回数の大小を採用
し、例えば、変化することが少ない音節が認識誤
りである場合には、照合によらずに、キーボード
11などから直接修正するか、発声し直したほう
がよいということを、操作者に認知させ、修正速
度の迅速化を可能としている。
Next, according to Figures 2 to 4, when displaying the input sentence data, regarding the displayed syllables,
An example will be described in which a plurality of types of display formats are displayed depending on the certainty of the input. In this example, the number of different syllables in the syllable sequence to be displayed is used as information regarding the certainty of the input. , the operator is made aware that it is better to make the correction directly from the keyboard 11 or the like, or to speak again, making it possible to speed up the correction speed.

表示音節系列中における各音節が、次の操作ま
たは何回かの操作で変化する可能性が大きいか否
かは、ある範囲内において、異なる音節が現れる
回数に関係する。例えば、曖昧文字列バツフア7
に格納された曖昧文字列が、第3図図示のよう
に、音声適正順位に従つて並んでいたとする。こ
の適正順位が第位から第位のものに着目する
と、第1音には、「ふ/く」の2種類の音節があ
る。同じ範囲では、第2音には、「じ/ぎ/ち」
の3種類の音節がある。従つて、第1音よりも第
2音のほうが、変化する可能性が大きいことにな
る。同様に第3音は、「つ」の1種類であるので、
少なくとも4回の通常の操作では、変化しないこ
とになる。
Whether or not each syllable in the displayed syllable series is likely to change in the next operation or several operations is related to the number of times different syllables appear within a certain range. For example, ambiguous string buffer 7
It is assumed that the ambiguous character strings stored in . If we focus on the appropriate rankings from the highest to the lowest, there are two types of syllables for the first sound: "fu/ku". In the same range, the second note is "ji/gi/chi"
There are three types of syllables. Therefore, there is a greater possibility that the second note will change than the first note. Similarly, the third sound is one type of "tsu", so
At least four normal operations will result in no change.

この音節数のカウントのため、第1図に示す表
示選択部14は、例えば第2図図示のように処理
する。即ち、最初に処理P1により、まず第1音
節を処理対象としてポイントする。次に処理P2
により、カウント範囲を設定する。第3図に示し
た例では、カウント範囲を「5」として、例えば
1回目の表示に対しては、カウント範囲を第位
から第位までとしている。そして、処理P3に
より、まず第位の音節が新しい音節種別かどう
かを判定する。最初の音節「ふ」は、必ず新しい
ことになるので、処理P4により、音節種類数を
「1」にする。そして、処理P5の判定により、
カウント範囲が終了するまで、処理P3および処
理P4を繰り返す。第位の「く」の音節で音節
種類数がカウントアツプされて「2」となること
になる。
In order to count the number of syllables, the display selection section 14 shown in FIG. 1 performs processing as shown in FIG. 2, for example. That is, first, in process P1, the first syllable is first pointed to as the processing target. Next, process P2
to set the count range. In the example shown in FIG. 3, the count range is set to "5", and for example, for the first display, the count range is from the first place to the second place. Then, in process P3, it is first determined whether the syllable of the highest rank is a new syllable type. Since the first syllable "fu" is always new, the number of syllable types is set to "1" in process P4. Then, according to the determination in process P5,
Process P3 and process P4 are repeated until the count range ends. The number of syllable types is counted up with the syllable of the digit "ku" and becomes "2".

第1音節についてのカウントが終了したなら
ば、次の処理P6によつて、第2音節をポイント
するようにし、処理P7の判定および分岐によつ
て、同様に処理P2ないし処理P6を繰り返す。
そして、順次各音節について処理し、最終音節が
終了したならば、処理P8によつて、各音節毎に
音節の種類数に対応した表示色を選択し、デイス
プレイに表示する。
When the counting for the first syllable is completed, the second syllable is pointed to in the next process P6, and processes P2 to P6 are similarly repeated based on the determination and branching of process P7.
Then, each syllable is processed in sequence, and when the final syllable is completed, a display color corresponding to the number of types of syllables is selected for each syllable and displayed on the display in process P8.

この表示は、例えば第4図イ図示のように行わ
れる。即ち、最初の表示は、音声適正順位が第
位の「ふじつう」であり、第1音節は音節種類数
が2であるので、例えば黄色で表示される。第2
音節「じ」は、第2音節の種類数が3であるの
で、赤で表示され、第3音節「つ」は青、第4音
節「う」は黄色で表示される。これを見れば、第
2音節が最も曖昧に認識されており、第2音節の
確からしさが小さいことがわかる。なお、この例
では、表示形態を色彩に対応させ、色彩の変化で
もつて音節種類数を表しているが、表示形態の種
類を、例えば輝度、反転表示またはブリンク等と
してもよい。後述する実施例においても同様であ
る。
This display is performed, for example, as shown in FIG. 4A. That is, the first display is "Fujitsu", which has the highest phonetic suitability ranking, and the first syllable is displayed in yellow, for example, because the number of syllable types is two. Second
The syllable "ji" has three types of second syllables, so it is displayed in red, the third syllable "tsu" is displayed in blue, and the fourth syllable "u" is displayed in yellow. Looking at this, it can be seen that the second syllable is recognized most vaguely, and the certainty of the second syllable is small. Note that in this example, the display format corresponds to color, and the number of syllable types is represented by a change in color, but the display format type may be, for example, brightness, inverted display, blinking, or the like. The same applies to the embodiments described later.

第4図イに示すような表示がなされたとき、通
常の読み取替え指示操作が行われると、音声適正
順位が第位の「ふぎつう」が表示される。この
2回目の表示におけるカウント範囲は、第3図に
示すように第位から第位までであり、第4図
ロに示す色彩でもつて、各音節が表示されること
になる。
When a display as shown in FIG. 4A is made and a normal rereading instruction operation is performed, "Fugitsu", which has the highest audio appropriateness ranking, is displayed. The count range in this second display is from the digit to the digit as shown in FIG. 3, and each syllable is displayed in the color shown in FIG. 4 (b).

第5図は、音節認識における確からしさを、音
節認識時に計算された標準パターンとの距離によ
る類似度とした例を示している。即ち、各音節毎
の類似度の大小により、色彩等の異なる表示形態
がとられる例を示している。
FIG. 5 shows an example in which the certainty in syllable recognition is determined by the degree of similarity based on the distance to the standard pattern calculated at the time of syllable recognition. That is, an example is shown in which different display forms such as colors are used depending on the degree of similarity of each syllable.

例えば“fujitsuu”と発声して、「ふじつう」
という読みを入力しようとしているときに、第5
図イ図示のように認識結果として「うじつう」が
表示されたとする。ここで色彩等による類似度の
情報をみると、第1音の「う」の類似度が最も小
さい。従つて、次の曖昧文字列を指定する操作を
行えば、第1音が変化し、正しい結果が得られる
可能性が大きいと判断できる。
For example, say “fujitsuu” and say “fujitsuu”.
When I was trying to input the reading, the fifth
Assume that "Ujitsu" is displayed as a recognition result as shown in Figure A. Looking at the information on the degree of similarity based on color, etc., the degree of similarity of the first sound "u" is the smallest. Therefore, it can be determined that if the operation of specifying the next ambiguous character string is performed, there is a high possibility that the first sound will change and a correct result will be obtained.

一方、例えば同じ入力に対して、第5図ロ図示
のように表示されたとする。この類似度をみる
と、誤つている第1音「う」の類似度が大きく、
正しい第4音「う」の類似度が小さい。誤つてい
る音節の類似度が大き場合、次の曖昧文字列で修
正される可能性は小さい。従つて、順次曖昧文字
列を取替える操作は、適切でなく、例えば音声を
再入力するか、またはキーボード11ないし画面
ポインデイング装置12からの入力により、直
接、先頭文字の修正指示操作を行つたほうがよい
ことがわかる。
On the other hand, suppose that, for example, the same input is displayed as shown in FIG. 5B. Looking at this similarity, the similarity of the incorrect first sound "u" is large,
The similarity of the correct fourth sound "u" is small. If the similarity of the erroneous syllable is large, there is a small possibility that it will be corrected with the next ambiguous character string. Therefore, it is not appropriate to sequentially replace ambiguous character strings, and it is better to directly instruct the correction of the first character, for example, by re-entering the voice or by inputting from the keyboard 11 or screen pointing device 12. I know it's good.

第6図は、さらに他の実施例における表示の例
を示している。例えば曖昧文字列バツフア7にお
いて、曖昧文字列が、第6図に示す示す順位でも
つて格納されていたとする。デイスプレイ画面の
読み表示領域16における最初の表示は、音節適
正順位が第位の「ふじつう」である。この表示
を行うとき、第1図図示表示選択部14は、予め
次の候補である曖昧文字列「ふぎつう」を読み出
し、現在表示する「ふじつう」との変化部分を抽
出する。そして、その変化する位置に、例えばア
ンダーライン等による変化予告表示20を付け
る。同様に2回目の表示における第位の「ふぎ
つう」を表示するときには、第位の「くじつ
う」との比較により、第1音および第2音に変化
予告表示20を付ける。3回目以降の表示につい
ても同様である。
FIG. 6 shows an example of display in yet another embodiment. For example, suppose that ambiguous character strings are stored in the ambiguous character string buffer 7 in the order shown in FIG. The first display in the reading display area 16 of the display screen is "Fujitsu", which has the highest syllable suitability ranking. When performing this display, the illustrated display selection unit 14 in FIG. 1 reads in advance the next candidate, the ambiguous character string "Fujitsu", and extracts the portion that differs from the currently displayed "Fujitsu". Then, a change notice display 20, such as an underline, is attached to the position where the change occurs. Similarly, when displaying the second-ranked "fugitsu", a change preview display 20 is attached to the first and second sounds in comparison with the highest-ranked "kujitsu". The same applies to the third and subsequent displays.

第6図が読みを取替える場合の例を示している
のに対し、第7図は漢字を取替える場合の表示例
を示している。照合結果記憶部13の内容が、第
7図に示すようになつていたとする。最初の表示
は、「富士通」である。これに対し、第2番目の
仮名漢字変換結果が「藤通」となつていたとする
と、漢字取替え指示により「富士」が「藤」に変
化することとなるので、「富」と「士」の文字に
対して、それぞれ変化予告表示21を付ける。以
下の表示についても同様である。これにより操作
者は、次の操作による変化を予測できることとな
る。なお、残り操作回数/残り候補数等を表示す
ると、読みまたは漢字の取替えを続行するのがよ
いか、または再入力がよいかなどについて、操作
者は、さらに適切に判断できることとなる。
While FIG. 6 shows an example of changing readings, FIG. 7 shows an example of displaying when changing kanji. It is assumed that the contents of the verification result storage section 13 are as shown in FIG. The first display is "Fujitsu." On the other hand, if the second kana-kanji conversion result is "Fujitsu", the kanji replacement instruction will change "Fuji" to "Fuji", so "Tomi" and "Shi" will be changed. A change notice display 21 is attached to each character. The same applies to the following displays. This allows the operator to predict changes caused by the next operation. Note that by displaying the number of remaining operations/number of remaining candidates, etc., the operator can more appropriately judge whether it is better to continue replacing readings or kanji, or whether it is better to re-enter.

〔発明の効果〕〔Effect of the invention〕

以上説明した如く、本発明によれば、次の操作
によつて起こる変化を、操作者が予想できるよう
になる。従つて、操作者は適切な操作手段を選択
できるようになり、迅速に目的とする日本語文章
を表示させることができるようになる。
As explained above, according to the present invention, the operator can predict changes that will occur due to the next operation. Therefore, the operator can select an appropriate operation means and can quickly display the desired Japanese text.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例ブロツク図、第2図
は第1図図示表示選択部による処理の例、第3図
は音節種類数のカウント範囲を説明する図、第4
図は本発明の実施例による表示態様を説明する
図、第5図は本発明の他の実施例による表示態様
を説明する図、第6図は読みの変化部分を予告す
る表示の説明図、第7図は漢字の変化を予告する
表示の説明図を示す。 図中、2は音声パラメータ抽出部、3は音声辞
書、4は音声認識部、5は音節ラテイス記憶部、
6は変換対象選択部、7は曖昧文字列バツフア、
8は単語辞書、9は辞書照合部、10は指示制御
部、11はキーボード、12は画面ポインテイグ
装置、13は照合結果記憶部、14は表示選択
部、15はデイスプレイ、20および21は変化
予告表示を表す。
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is an example of processing by the graphical display selection unit shown in FIG. 1, FIG. 3 is a diagram explaining the counting range of the number of syllable types,
FIG. 5 is a diagram explaining a display mode according to an embodiment of the present invention, FIG. 5 is a diagram explaining a display mode according to another embodiment of the present invention, FIG. FIG. 7 shows an explanatory diagram of a display that foretells a change in kanji. In the figure, 2 is a speech parameter extraction unit, 3 is a speech dictionary, 4 is a speech recognition unit, 5 is a syllable latitude storage unit,
6 is a conversion target selection part, 7 is an ambiguous character string buffer,
8 is a word dictionary, 9 is a dictionary collation unit, 10 is an instruction control unit, 11 is a keyboard, 12 is a screen pointing device, 13 is a collation result storage unit, 14 is a display selection unit, 15 is a display, 20 and 21 are change notices Represents a display.

Claims (1)

【特許請求の範囲】 1 文章データの入力について、該データの読み
上げ音声を音声認識に基づきCV音節候補系列に
変換し、該系列に対し辞書照合を用いた仮名漢字
変換処理によつて日本語文書を作成する音声ワー
ドプロセツサにおいて、入力音声の特徴パラメー
タを抽出するパラメータ抽出部と、該パラメータ
抽出部が抽出した特徴パラメータに基づいて予め
辞書に格納された標準パターンと照合することに
より候補となる音節系列を選出する音声認識部
と、各適正文字に関する情報が登録された単語辞
書と、上記音声認識部による認識結果に基づいて
生成される曖昧文字列について上記単語辞書を検
索し適正文字を抽出する辞書照合部と、少なくと
も音声再入力指示、読み取替え指示および漢字取
替え指示を含む指示に対する入力操作を検出し指
示内容に関する制御を行う指示制御部と、次に選
択される上記入力操作に対して変化する表示内容
を予測させる情報を表示する表示選択部とを備え
たことを特徴とする音声ワードプロセツサ。 2 上記変化する表示内容を予測させる情報は、
表示予定音節系列中における音節の異なる回数の
大小または各音節の標準パターンとの類似度に基
づき選択される複数種の表示形態であることを特
徴とする特許請求の範囲第1項記載の音声ワード
プロセツサ。 3 上記変化する表示内容を予測させる情報は、
上記読み取替え指示または/および漢字取替え指
示に対して取替えの対象となる文字を予告する表
示情報であることを特徴とする特許請求の範囲第
1項記載の音声ワードプロセツサ。
[Claims] 1. Regarding the input of text data, the reading voice of the data is converted into a CV syllable candidate series based on voice recognition, and the series is converted into a Japanese document by a kana-kanji conversion process using dictionary matching. In the speech word processor that creates the input speech, there is a parameter extraction section that extracts feature parameters of the input speech, and candidates are created by comparing the feature parameters extracted by the parameter extraction section with standard patterns stored in a dictionary in advance. A speech recognition unit that selects a syllable sequence, a word dictionary in which information regarding each proper character is registered, and the word dictionary is searched for ambiguous character strings generated based on the recognition results by the speech recognition unit to extract proper characters. an instruction control unit that detects an input operation for an instruction including at least a voice re-input instruction, a rereading instruction, and a kanji replacement instruction and controls the instruction content; A voice word processor comprising: a display selection section that displays information for predicting changing display content. 2 The information that predicts the changing display contents mentioned above is
The speech word according to claim 1, characterized in that the speech word has a plurality of display formats selected based on the number of different syllables in the syllable series to be displayed or the similarity of each syllable to a standard pattern. processor. 3 The information that predicts the changing display contents mentioned above is
2. The audio word processor according to claim 1, wherein the display information is a preview of characters to be replaced in response to the reading replacement instruction and/or the kanji replacement instruction.
JP59246843A 1984-11-21 1984-11-21 Speech word processor Granted JPS61125676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59246843A JPS61125676A (en) 1984-11-21 1984-11-21 Speech word processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59246843A JPS61125676A (en) 1984-11-21 1984-11-21 Speech word processor

Publications (2)

Publication Number Publication Date
JPS61125676A JPS61125676A (en) 1986-06-13
JPH0374426B2 true JPH0374426B2 (en) 1991-11-26

Family

ID=17154528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59246843A Granted JPS61125676A (en) 1984-11-21 1984-11-21 Speech word processor

Country Status (1)

Country Link
JP (1) JPS61125676A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5680771A (en) * 1979-12-04 1981-07-02 Dainippon Printing Co Ltd "kanji" (chinese character) input device for print
JPS5816327A (en) * 1981-07-20 1983-01-31 Nec Corp Input device of japanese word
JPS592124A (en) * 1982-06-28 1984-01-07 Nippon Telegr & Teleph Corp <Ntt> "kana" (japanese syllabary) "kanji" (chinese character) converting system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5680771A (en) * 1979-12-04 1981-07-02 Dainippon Printing Co Ltd "kanji" (chinese character) input device for print
JPS5816327A (en) * 1981-07-20 1983-01-31 Nec Corp Input device of japanese word
JPS592124A (en) * 1982-06-28 1984-01-07 Nippon Telegr & Teleph Corp <Ntt> "kana" (japanese syllabary) "kanji" (chinese character) converting system

Also Published As

Publication number Publication date
JPS61125676A (en) 1986-06-13

Similar Documents

Publication Publication Date Title
JP3531468B2 (en) Document processing apparatus and method
JPH0512287A (en) Document processor
KR100702483B1 (en) Chinese character input system and its method
JPH0374426B2 (en)
WO1990002992A1 (en) Symbol definition apparatus
JP2003091532A (en) Generation method and dictionary consulting method for hangul character
JPH04232997A (en) System for displaying result of recognition in speech recognition device
JPH01290032A (en) Voice recognition/display device
JPH07191986A (en) Sentence input device
JPS61122781A (en) Speech word processor
JPH0441399Y2 (en)
JPH08272780A (en) Processor and method for chinese input processing, and processor and method for language processing
JPH0934890A (en) Handwritten character input device and kana/kanji conversion method
JPH0944476A (en) Chinese document processor
JPH10143503A (en) Speech word processor
JP2842271B2 (en) Handwritten character string input device
JP3490811B2 (en) Kana-Kanji conversion method for document processing device
JPH10261049A (en) Character recognizing device
JPH0458381A (en) Optical character reader
JPS60205594A (en) Recognition results display system
JPH10301597A (en) Voice recognition device
JPH09134350A (en) Kana/kanji converting method of document processor
JPH02257256A (en) Character processor
JPH0115105B2 (en)
JPS60200336A (en) Voice input processor

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term