JP2675912B2 - Character processor - Google Patents
Character processorInfo
- Publication number
- JP2675912B2 JP2675912B2 JP2229673A JP22967390A JP2675912B2 JP 2675912 B2 JP2675912 B2 JP 2675912B2 JP 2229673 A JP2229673 A JP 2229673A JP 22967390 A JP22967390 A JP 22967390A JP 2675912 B2 JP2675912 B2 JP 2675912B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- candidate
- learning
- phrase
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Document Processing Apparatus (AREA)
Description
【発明の詳細な説明】 [産業上の利用分野] 本発明は、仮名漢字変換により漢字仮名混り文を入力
する文字処理装置に関する。Description: TECHNICAL FIELD The present invention relates to a character processing device for inputting a kana-kana mixed sentence by kana-kanji conversion.
[従来の技術] 現在、日本ワードプロセッサなどの文字処理装置は漢
字仮名混り文の入力を仮名漢字変換を使って行なうこと
が一般的である。[Related Art] At present, a character processing apparatus such as a Japanese word processor generally inputs a sentence mixed with kanji and kana using kana-kanji conversion.
仮名漢字変換は辞書を参照することにより、入力され
た読み列を漢字に変換するものである。辞書においては
各単語に対して名詞、サ変名詞、副詞、形容詞、形容動
詞等の品詞情報が記述されており、仮名漢字変換は読み
列を解析して可能な文節候補を作成し、それらを組み合
わせて変換候補を決定し、尤もらしい順に提示する。そ
して、提示された変換候補の中からオペレータが望む候
補を選択する。The kana-kanji conversion converts an input reading sequence into kanji by referring to a dictionary. The dictionary describes part-of-speech information such as nouns, sa-nouns, adverbs, adjectives, and adjective verbs for each word, and kana-kanji conversion analyzes the reading sequence to create possible phrase candidates and combines them. Conversion candidates, and present the conversion candidates in plausible order. Then, a candidate desired by the operator is selected from the presented conversion candidates.
例えば、読み列「しようがわるい」に対しては「使用
が」「仕様が」「使用」「仕様」「死」「悪い」「和」
「類」「側」「画」「用が」「用」などの文節候補が作
成され、これらを組み合わせた「使用が悪い」「仕様が
悪い」「使用側類」「使用が和類」などが変換候補とし
て出力表示される。オペレータはこのように提示された
変換候補の中から自分の望む「仕様が悪い」を選択確定
することになるわけである。For example, for the reading column “Impossible”, “Use”, “Specification”, “Use”, “Specification”, “Death”, “Bad”, “Sum”
Clause candidates such as "class", "side", "image", "use", and "use" are created, and these are combined to make "bad use", "poor specifications", "use side class", "use Japanese", etc. Is output and displayed as a conversion candidate. The operator selects and confirms his / her desired “bad specification” from the conversion candidates presented in this way.
ところで、「しようがわるい」と入力する度に毎回
「仕様が悪い」を選択させるのでは操作が煩雑に過ぎる
ので、一度選択操作を行なうと次回からはその通りに変
換される学習機能というものが提供されるのが一般的で
ある。By the way, the operation is too complicated if you select "poor specifications" every time you input "Impossible", so there is a learning function that will be converted as it is from the next time if you select once. It is generally provided.
この学習機能の最も単純なものは各単語に学習フラグ
を1ビート用意し、単語が選択されたときに学習フラグ
をONし、仮名漢字変換時には学習フラグがONになってい
る単語を優先的に変換するという仕掛により実現でき
る。ただし、これだけでは、変換候補の中の2つの単語
を交互に使用した場合、両方の単語の学習フラグがONに
なってしまう。その結果、片方の単語だけが常に第1位
に変換され、他方の単語については学習効果が得られな
くなるので、ある単語の学習フラグをONすると同時に対
立候補(選択単語よりも高い優先度で変換された候補)
の学習フラグをOFFするという処理も一般に行なわれて
いる。The simplest of this learning function is to prepare a learning flag for each word for one beat, turn on the learning flag when a word is selected, and give priority to the word for which the learning flag is turned on when converting Kana to Kanji. It can be realized by the mechanism of converting. However, with only this, when two words in the conversion candidates are used alternately, the learning flags of both words are turned ON. As a result, only one word is always converted to the first place, and the learning effect is not obtained for the other word. Therefore, the learning flag of a certain word is turned on, and at the same time, an alternative candidate (conversion with a higher priority than the selected word) Candidates)
The process of turning off the learning flag is generally performed.
[発明が解決しようとしている課題] ところが、選択単語と対立候補の特性が異なる場合、
対立候補の学習OFFが不必要な場合もある。従来は一律
に対立候補の学習をOFFするので、もし学習OFFが不必要
な状況においては、その対立候補の学習を不必要に消し
てしまったことになる。[Problem to be solved by the invention] However, if the selected word and the alternative candidate have different characteristics,
In some cases, learning OFF of conflict candidates is unnecessary. Conventionally, the learning of the contending candidate is uniformly turned off, so if the learning does not need to be turned off, the learning of the contending candidate is unnecessarily erased.
例えば、「そうさしよう」と入力した場合を考える。
「操作しよう」「操作仕様」などの変換候補があり、
「操作しよう」は自立語+付属語のパターンとして変換
され、「操作仕様」は自立語+自立語のパターン(すな
わち、複合語)として変換されている。一般には付属語
は自立語よりも優先的に変換されるので、学習が何もさ
れていない状態では「操作しよう」が第1候補として変
換される。しかし、何らかの事情で(恐らく、「仕様」
について述べた文章を入力して)、「仕様」の学習フラ
グがONであれば「操作仕様」が優先的に変換される。こ
のとき「仕様」を「しよう」に変更すると、「しよう」
の学習フラグがONになると同時に「仕様」の学習フラグ
がOFFとなってしまう。これにより、次回から「そうさ
しよう」と入力した場合は期待通りに「操作しよう」と
変換できるが、単に「しよう」と入力した場合には、学
習フラグがOFFされているため、「仕様」が第1候補で
は変換されなくなってしまう。通常はより標準頻度の高
い「使用」が変換される。なお、付属語の「しよう」は
単独文節としては変換されない。For example, consider the case where "Let's do it" is input.
There are conversion candidates such as "Let's operate" and "Operation specifications"
"Let's operate" is converted as a pattern of independent words + auxiliary words, and "operation specification" is converted as a pattern of independent words + independent words (that is, a compound word). In general, the adjunct word is converted with priority over the independent word, so that “Let's operate” is converted as the first candidate in a state where nothing is learned. But for some reason (probably "specification"
If the learning flag of "specifications" is ON, "operation specifications" will be converted with priority. If you change "Specification" to "Let's" at this time, "Let's"
The learning flag of "Specification" turns off at the same time that the learning flag of turns on. As a result, if "Let's say" is input next time, it can be converted to "Let's operate" as expected, but if you just type "Let's say", the learning flag is turned off. Are not converted in the first candidate. Normally, "use", which has a higher standard frequency, is converted. Note that the adjunct "shou" is not converted as a single phrase.
[課題を解決するための手段(及び作用)] 本発明によれば、文字処理装置に、読みを入力する入
力手段と、単語の読みと、表記と、学習データとを対応
づけて記憶する記憶手段と、共起関係にある複数の単語
の組を用例として記憶する用例記憶手段と、前記入力手
段より入力された読みに対して、前記記憶手段及び前記
用例記憶手段を参照し、用例の適用される単語及び学習
データの表わす優先度の高い単語を優先させて、第1候
補の単語を決定し、当該第1候補の単語の表記を表示す
る第1候補表示手段と、前記第1候補より下位の候補の
表記を表示する次候補表示手段と、該次候補表示手段ま
たは前記第1候補表示手段により表記が表示された候補
より1つの候補を選択する選択手段と、該選択手段によ
り選択された単語の優先度を向上させるように、当該単
語の学習データを更新する学習手段と、前記選択された
単語及び当該選択された単語より上位の候補の各単語に
対して、用例が適用されているか否かを判定する判定手
段と、該判定手段による判定の結果に基づいて、前記選
択された単語に用例が適用されていれば、前記上位の候
補の単語のうち、用例が適用されていると判定された単
語の優先度を低下させ、用例が適用されていないと判定
された単語の学習データを不変とするように制御する抑
制手段とを有することにより、選択された候補の学習デ
ータを向上させるとともに、選択された単語に用例が適
用されていれば、選択された単語より上位の候補の単語
のうち、用例が適用されていると判定された単語の優先
度を低下させ、用例が適用されていないと判定された単
語の学習データを不変とし、選択された候補以外の候補
の学習データを不必要に変更することを防止する。[Means (and Action) for Solving the Problem] According to the present invention, the character processing device stores the input means for inputting the reading, the reading of the word, the notation, and the learning data in association with each other. Means, an example storage means for storing a set of a plurality of words having a co-occurrence relationship as an example, and a reading input from the input means, with reference to the storage means and the example storage means, application of the example First candidate display means for deciding the first candidate word and displaying the notation of the first candidate word by prioritizing the word having a high priority represented by the selected word and the learning data, and the first candidate. Next candidate display means for displaying the notation of the subordinate candidates, selection means for selecting one candidate from the candidates whose notation is displayed by the next candidate display means or the first candidate display means, and the selection means. The priority of the word As described above, learning means for updating the learning data of the word, and determining whether or not the example is applied to each of the selected word and each candidate word above the selected word If the example is applied to the selected word based on the determination means and the result of the determination by the determination means, of the words of the higher-ranked candidates, the word determined to be the example is applied. By lowering the priority and suppressing the learning data of the word determined not to be applied to the example so as to be invariant, by improving the learning data of the selected candidate, it is also selected. If the example is applied to the selected word, the priority of the word that is determined to be the example among the candidate words higher than the selected word is lowered, and it is determined that the example is not applied. It Word of the learning data unchanged were, to prevent changing the learning data candidates other than the selected candidate unnecessarily.
[実施例] 以下図面を参照しながら本発明を詳細に説明する。EXAMPLES Hereinafter, the present invention will be described in detail with reference to the drawings.
第1図は本発明に係る文字処理装置の全体構成の一例
である。FIG. 1 is an example of the overall configuration of a character processing device according to the present invention.
図示の構成において、CPUは、マイクロプロセッサで
あり、文字処理のための演算、論理判断等を行ない、ア
ドレスバスAB、コントロールバスCB、データバスDBを介
して、それらのバスに接続された各構成要素を制御す
る。In the configuration shown in the figure, a CPU is a microprocessor, performs calculations for character processing, performs logical judgment, and the like, and is connected to those components via an address bus AB, a control bus CB, and a data bus DB. Control elements.
アドレスバスABはマイクロプロセッサCPUの制御の対
象とする構成要素を指示するアドレス信号を転送する。
コントロールバスCBはマイクロプロセッサCPUの制御の
対象とする各構成要素のコントロール信号を転送して印
加する。データバスDBは各構成機器相互間のデータの転
送を行なう。The address bus AB transfers an address signal indicating a component to be controlled by the microprocessor CPU.
The control bus CB transfers and applies a control signal of each component to be controlled by the microprocessor CPU. The data bus DB transfers data between the components.
つぎにROMは、読出し専用の固定メモリであり、第20
図〜第27図につき後述するマイクロプロセッサCPUによ
る制御の手順を記憶させておく。Next, the ROM is a fixed read-only memory.
The procedure of control by the microprocessor CPU, which will be described later with reference to FIGS. To 27, is stored.
また、RAMは、1ワード16ビットの構成の書込み可能
のランダムアクセスメモリであって、各構成要素からの
各種データの一時記憶に用いる。IBUFはキー入力された
キーデータを記憶する入力バッファであり、OBUFは仮名
漢字変換された結果を一時的に記憶する出力バッファで
ある。DICは仮名漢字変換を行なうための辞書である。Y
DICは単語間の共起関係を記述した用例辞書である。BCT
BLは変換途中の文節候補を記憶する文節候補テーブルで
ある。CTBL1は文節とそれに後続する付属語間の接続規
則を記憶した文節接続マトリックスである。CTBL2は文
節とそれに後続する接尾語間の接続規則を記憶した文節
接続マトリックスである。CTBL3は接頭語とそれに後続
する文節間の接続規則を記憶した文節接続マトリックス
である。TBUFはテキストバッファであり、入力編集中の
テキストデータが記憶される。DOBUFは同音語バッファ
であり、テキストバッファTBUFに記憶される文字に同音
語候補が存在するときはその候補が記憶される。The RAM is a writable random access memory having a structure of one word and 16 bits, and is used for temporarily storing various data from each component. IBUF is an input buffer for storing keyed key data, and OBUF is an output buffer for temporarily storing the result of Kana-Kanji conversion. DIC is a dictionary for performing kana-kanji conversion. Y
DIC is an example dictionary that describes co-occurrence relationships between words. BCT
BL is a phrase candidate table that stores phrase candidates during conversion. CTBL1 is a phrase connection matrix that stores a connection rule between a phrase and a subsequent attached word. CTBL2 is a phrase connection matrix that stores the connection rules between a phrase and a suffix following it. CTBL3 is a phrase connection matrix that stores the connection rules between the prefix and the subsequent phrases. TBUF is a text buffer in which text data being input and edited is stored. DOBUF is a homophone word buffer, and when a homophone word candidate exists for the character stored in the text buffer TBUF, the candidate is stored.
KBはキーボードであって、アルファベットキー、ひら
かなキー、カタカナキー等の文字記号入力キー、及び、
変換キー、次候補キー、選択キー等の本文字処理装置に
対する各種機能を指示するための各種のファンクション
キーを備えている。KB is a keyboard, and character symbol input keys such as alphabet keys, hiragana keys, katakana keys, and,
It has various function keys such as a conversion key, a next candidate key, and a selection key for instructing various functions to the character processing apparatus.
DISKは文書データを記憶するための外部記憶部であ
り、テキストバッファTBUF上に作成された文書の保管を
行ない、保管された文書はキーボードの指示により、必
要な時呼び出される。DISK is an external storage unit for storing document data. The DISK stores a document created in the text buffer TBUF, and the stored document is called up when necessary according to a keyboard instruction.
CRはカーソルレジスタである。CPUにより、カーソル
レジスタの内容を読み書きできる。後述するCRTコント
ローラCRTCは、ここに蓄えられたアドレスに対応する表
示装置CRT上の位置にカーソルを表示する。CR is a cursor register. The CPU can read and write the contents of the cursor register. A CRT controller CRTC described later displays a cursor at a position on the display device CRT corresponding to the address stored here.
DBUFは表示用バッファメモリで、表示すべきデータの
パターンを蓄える。テキストの内容を表示するときはテ
キストバッファTBUFの内容に応じて表示パターンがDBUF
に作成されることにより、表示されることになる。DBUF is a display buffer memory for storing patterns of data to be displayed. When displaying text contents, the display pattern is DBUF according to the contents of the text buffer TBUF.
Will be displayed.
CRTCはカーソルレジスタCR及びバッファDBUFに蓄えら
れた内容を表示器CRTに表示する役割を担う。The CRTC plays a role of displaying the contents stored in the cursor register CR and the buffer DBUF on the display CRT.
またCRTは陰極線管等を用いた表示装置であり、その
表示装置CRTにおけるドット構成の表示パターンおよび
カーソルの表示をCRTコントローラで制御する。The CRT is a display device using a cathode ray tube or the like, and a display pattern of a dot configuration and a display of a cursor on the display device CRT are controlled by a CRT controller.
さらに、CGはキャラクタジェネレータであって、表示
装置CRTに表示する文字、記号のパターンを記憶するも
のである。Further, CG is a character generator for storing patterns of characters and symbols to be displayed on the display device CRT.
かかる各構成要素からなる本発明に係る文字処理装置
においては、キーボードKBからの各種の入力に応じて作
動するものであって、キーボードKBからの入力が供給さ
れると、まず、インタラプト信号がマイクロプロセッサ
CPUに送られ、そのマイクロプロセッサCPUがROM内に記
憶してある各種の制御信号を読出し、それらの制御信号
に従って各種の制御が行なわれる。In the character processing device according to the present invention comprising such components, the apparatus operates in response to various inputs from the keyboard KB. When an input from the keyboard KB is supplied, first, an interrupt signal is generated by a microcontroller. Processor
Sent to the CPU, the microprocessor CPU reads out various control signals stored in the ROM, and performs various controls according to the control signals.
第2図は従来の文字処理装置による変換選択操作の例
を示した図である。2−1はまず初期画面を示したもの
である。画面上部はテキスト及び入力中の読みが表示さ
れる画面であり、下部は候補一覧が表示される画面であ
る。カーソルはアンダラインで示される。2−2は読み
列「しようがわるい」を入力した時の画面を示してい
る。入力読み列はアンダラインが付いて表示され、カー
ソルは入力読み列の次に表示されている。ここで変換キ
ーを打鍵すると2−3の画面になり、読み列「しようが
わるい」が「使用が悪い」と変換されている。「しよ
う」には「使用」「仕様」などの候補があるが、一般に
「使用」の方が頻度が高いので第1候補に変換される。
オペレータは「仕様が悪い」という変換を望んだとし
て、次候補キーを打鍵すると2−の画面になる。ここで
「しよう」の変換候補が表示される。第1候補は「使
用」であり、第2候補は「仕様」である。現在の候補は
第2候補の「仕様」であり、2が反転表示している。こ
こで選択キーを打鍵すると、2−5の画面になる。第2
候補の「仕様」が確定してテキストデータの中に格納さ
れ、同時に「仕様」の学習フラグがONとなり、優先度が
向上する。次に「そうさしよう」と入力すると2−6の
画面になり、更に変換キーが打鍵すると2−7の画面に
なる。「仕様」が学習されているので、「操作仕様」が
第1候補として表示されている。ここで次候補キーを打
鍵すると2−8の画面になり、「しよう」の第2候補と
して付属語「しよう」が表示される。ここで選択キーを
打鍵すると2−9の画面となり、「しよう」が確定して
テキストデータに格納される。同時に付属語「しよう」
の学習フラグがONとなり、自立語「仕様」の学習フラグ
はOFFとなる。次にもう一度「しようがわるい」と入力
すると2−10の画面になり、更に変換キーを打鍵すると
2−11の画面の様に変換結果が表示される。「仕様」の
学習フラグがOFFとなっているので、この変換結果は2
−3の画面と全く同じである。「仕様が悪い」を入力す
るには更に次候補キーを打鍵して2−12の画面の様に変
換候補を表示する必要がある。以上の様に「仕様が悪
い」と「操作しよう」を交互に入力しているかぎり、必
ず候補一覧から目的の候補を選択する作業が必要であ
る。FIG. 2 is a diagram showing an example of a conversion selection operation by a conventional character processing device. 2-1 shows the initial screen first. The upper part of the screen is a screen on which texts and readings during input are displayed, and the lower part is a screen on which a candidate list is displayed. The cursor is indicated by an underline. 2-2 shows a screen when the reading column "Impossible" is input. The input reading is displayed with an underline, and the cursor is displayed next to the input reading. Here, when the conversion key is depressed, a screen of 2-3 is displayed, and the reading sequence "Impossible" is converted to "Poor use". There are candidates such as "use" and "specifications" for "shall", but "use" is generally converted to the first candidate because it has a higher frequency.
If the operator desires a conversion of "bad specifications", he or she taps the next candidate key, and the screen of 2- appears. Here, a conversion candidate of "Let's" is displayed. The first candidate is “use”, and the second candidate is “specification”. The current candidate is the “spec” of the second candidate, and 2 is highlighted. Here, when the selection key is pressed, a screen 2-5 is displayed. Second
The "specification" of the candidate is determined and stored in the text data, and at the same time, the learning flag of "specification" is turned ON, and the priority is improved. Next, if you input "yes", the screen of 2-6 appears, and if you press the conversion key, the screen of 2-7 appears. Since “specifications” have been learned, “operation specifications” are displayed as first candidates. Here, when the next candidate key is touched, the screen of 2-8 is displayed, and the auxiliary word "shou" is displayed as the second candidate of "shou". Here, when the selection key is depressed, the screen of 2-9 is displayed, and "Let's" is determined and stored in the text data. At the same time, supposed word
Is turned on, and the learning flag of the independent word "specification" is turned off. Next, if you input "Sho ga Dai" again, the screen of 2-10 appears, and if you press the conversion key, the conversion result is displayed as in the screen of 2-11. Since the learning flag of "Specifications" is OFF, this conversion result is 2
-3 is exactly the same as the screen. In order to input "bad specifications", it is necessary to further press the next candidate key to display conversion candidates as in the screen 2-12. As described above, as long as "bad specifications" and "let's operate" are alternately input, it is necessary to always select the target candidate from the candidate list.
第3図は従来の文字処理装置による変換選択操作の別
の例を示した図である。3−1は処理画面である。3−
2は読み列「ごはたのしい」を入力した時の画面を示し
ている。ここで変換キーを打鍵すると3−3の画面にな
り、読み列「ごはたのしい」が「五は楽しい」と変換さ
れている。「ご」には「五」「碁」などの候補がある
が、一般に「五」の方が頻度が高いので第1候補に変換
される。オペレータは「碁は楽しい」という変換を望ん
だとして、次候補キーを打鍵すると3−4の画面にな
る。ここで「ご」の変換候補が表示される。第1候補は
「五」であり、第2候補は「碁」である。ここで選択キ
ーを打鍵すると、3−5の画面になる。第2候補の
「碁」が確定してテキストデータの中に格納され、同時
に「碁」の学習フラグがONとなり、優先度が向上する。
次に「スペインごでは」と入力すると3−6の画面にな
り、更に変換キーを打鍵すると3−7の画面になる。
「碁」が学習されているので「(スペイン語では)碁で
は」が第1候補として表示されている。ここで次候補キ
ーを打鍵すると3−8の画面になり、「ごでは」の第2
候補として接尾語「語では」が表示される。ここでは選
択キーを打鍵すると3−9の画面となり、「語では」が
確定してテキストデータに格納される。同時に接尾語
「語では」の学習フラグがONとなり、名詞「碁」の学習
フラグはOFFとなる。次にもう一度「ごは」と入力する
と3−10の画面になり、更に変換キーを打鍵すると3−
11の画面の様に変換結果が表示される。「碁」の学習フ
ラグがOFFとなっているので、この変換結果は3−3の
画面と全く同じである。「碁は楽しい」を入力するには
更に次候補キーを打鍵して3−12の画面の様に変換候補
を表示する必要がある。以上の様に「碁は楽しい」と
「スペイン語では」を交互に入力しているかぎり、必ず
候補一覧から目的の候補を選択する作業が必要である。FIG. 3 is a diagram showing another example of the conversion selection operation by the conventional character processing device. 3-1 is a processing screen. 3-
Reference numeral 2 denotes a screen when the reading column “Fun fun” is input. Here, when the conversion key is typed, the screen of 3-3 is displayed, and the reading string "Fun is fun" is converted to "Five is fun". Although “go” includes candidates such as “go” and “go”, “go” is generally converted to the first candidate because it has a higher frequency. If the operator desires the conversion of "go is fun", the next candidate key is pressed, and the screen of 3-4 is displayed. Here, the conversion candidate of “go” is displayed. The first candidate is “five” and the second candidate is “go”. Here, when the selection key is pressed, a screen 3-5 is displayed. The second candidate “Go” is determined and stored in the text data, and at the same time, the “Go” learning flag is turned on, and the priority is improved.
Next, when "Spanish" is input, the screen of 3-6 is displayed, and when the conversion key is further pressed, a screen of 3-7 is displayed.
Since "go" has been learned, "(in Spanish) Go" is displayed as the first candidate. If you hit the next candidate key here, the screen of 3-8 appears, and the second
The suffix "word" is displayed as a candidate. Here, when the select key is pressed, the screen of 3-9 appears, and "in words" is confirmed and stored in the text data. At the same time, the learning flag for the suffix “in the word” is turned on, and the learning flag for the noun “go” is turned off. Next, if you input "goha" again, the screen of 3-10 will appear, and if you press the conversion key further, 3-
The conversion result is displayed as in the screen of 11. Since the learning flag of "go" is OFF, this conversion result is exactly the same as the screen of 3-3. In order to input "Go is fun", it is necessary to press the next candidate key and display the conversion candidates as shown on the screen 3-12. As described above, as long as "Go is fun" and "In Spanish" are alternately input, it is necessary to always select the target candidate from the candidate list.
第4図は従来の文字処理装置による変換選択操作の3
番目の例を示した図である。4−1は初期画面である。
4−2は読み列「はかる」を入力した時の画面を示して
いる。ここで変換キーを打鍵すると4−3の画面にな
り、読み列「はかる」が「計る」と変換されている。
「はかる」には「計る」「測る」「謀る」などの候補が
あるが、一般に「計る」の方が頻度が高いので第1候補
に変換される。オペレータは「謀る」という変換を望ん
だとして、次候補キーを2回打鍵すると4−4の画面に
なる。ここで「はかる」の変換候補が表示される。第1
候補は「計る」、第2候補は「測る」、第3候補は「謀
る」である。ここで選択キーを打鍵すると、4−5の画
面になる。第3候補の「謀る」が確定してテキストデー
タの中に格納され、同時に「謀る」の学習フラグがONと
なり、優先度が向上する。次に「しんちょうをはかる」
と入力すると4−6の画面になり、更に変換キーを打鍵
すると4−7の画面になる。「身長を計る」「身長を測
る」という用例が用例辞書中に存在するので、「謀る」
が学習されているにもかかわらず、「身長を計る」が第
1候補として表示されている。なお、「計る」が「測
る」よりも優先して変換されるのは「計る」の頻度の方
が一般に高いからである。ここで次候補キーを打鍵する
と4−8の画面になり、「はかる」の第2候補として同
じく用例の存在する「測る」が表示される。ここで選択
キーを打鍵すると4−9の画面となり、「測る」が確定
してテキストデータに格納される。同時に「測る」の学
習フラグがONとなり、「謀る」の学習フラグはOFFとな
る。次にもう一度「はかる」と入力すると4−10の画面
になり、更に変換キーを打鍵すると4−11の画面の様に
変換結果が表示される。「謀る」の学習フラグがOFFと
なっているので、「謀る」は第1候補としては変換され
ず、先程学習された「測る」が第1候補として変換され
ている。「謀る」を入力するには更に次候補キーを2回
打鍵して4−12の画面の様に変換候補を表示する必要が
ある。もしここで「謀る」を選択すると、「測る」の学
習フラグも同時OFFとなり、「しんちょうをはかる」は
「身長を計る」と変換される様になる。以上の様に「謀
る」と「身長を測る」を交互に入力しているかぎり、必
ず候補一覧から目的の候補を選択する作業が必要であ
る。FIG. 4 shows a third example of the conversion selecting operation by the conventional character processing device.
It is a figure showing the example of the. 4-1 is an initial screen.
4-2 shows a screen at the time of inputting the reading string "measure". Here, when the conversion key is pressed, the screen of 4-3 is displayed, and the reading sequence "measure" is converted to "measure".
“Measure” includes candidates such as “measure”, “measure”, and “conspire”, but since “measure” is generally more frequent, it is converted to the first candidate. Assuming that the operator desires the conversion of “conspire”, if the next candidate key is pressed twice, a screen 4-4 is displayed. Here, a conversion candidate of “measure” is displayed. First
The candidate is "measure", the second candidate is "measure", and the third candidate is "rebel". Here, when the selection key is pressed, a screen 4-5 is displayed. The third candidate “conspiracy” is determined and stored in the text data, and at the same time, the learning flag of “conspiracy” is turned on, and the priority is improved. Next, "Measure Shincho"
Is displayed, the screen of 4-6 is displayed, and when the conversion key is further pressed, the screen of 4-7 is displayed. Examples of "measuring height" and "measuring height" exist in the example dictionary, so
Although "has been learned", "measure height" is displayed as the first candidate. The reason why “measure” is converted prior to “measure” is that the frequency of “measure” is generally higher. Here, when the next candidate key is pressed, a screen 4-8 is displayed, and "measure", which also has an example, is displayed as a second candidate of "measure". Here, when the selection key is depressed, the screen of 4-9 is displayed, and "measure" is determined and stored in the text data. At the same time, the learning flag of "measure" is turned on, and the learning flag of "believe" is turned off. Next, when "Haru" is input again, the screen 4-10 is displayed, and when the conversion key is pressed, the conversion result is displayed as in the screen 4-11. Since the learning flag of "pluck" is OFF, "pluck" is not converted as the first candidate, but "measure" learned previously is converted as the first candidate. In order to input "Trust", it is necessary to press the next candidate key twice to display the conversion candidates as shown in the screen 4-12. If you select "Attract" here, the learning flag of "Measure" will be turned off at the same time, and "Measure Shincho" will be converted to "Measure height". As described above, it is necessary to always select the desired candidate from the candidate list as long as the "pluck" and "measure the height" are alternately input.
第5図は本発明に係る文字処理装置による変換選択操
作の例を示した図である。5−1は処理画面である。5
−2は読み列「しようがわるい」を入力した時の画面を
示している。ここで変換キーを打鍵すると5−3の画面
になり、読み列「しようがわるい」が「使用が悪い」と
変換されている。「しよう」には「使用」「仕様」など
の候補があるが、一般に「使用」の方が頻度が高いので
第1候補に変換される。オペレータは「仕様が悪い」と
いう変換を望んだとして、次候補キーを打鍵すると5−
4の画面になる。ここで「しよう」の変換候補が表示さ
れる。第1候補は「使用」であり、第2候補は「仕様」
である。現在の候補は第2候補の「仕様」である。ここ
で選択キーを打鍵すると、5−5の画面になる。第2候
補の「仕様」が確定してテキストデータの中に格納さ
れ、同時に「仕様」の学習フラグがONとなり、優先度が
向上する。次に「そうさしよう」と入力すると5−6の
画面になり、更に変換キーを打鍵すると5−7の画面に
なる。「仕様」が学習されているので、「操作仕様」が
第1候補として表示されている。ここで次候補キーを打
鍵すると5−8の画面になり、「しよう」の第2候補と
して付属語「しよう」が表示される。ここで選択キーを
打鍵すると5−9の画面となり、「しよう」が確定して
テキストデータに格納される。同時に付属語「しよう」
の学習フラグがONとなるが、第2図と異なり、自立語
「仕様」の学習フラグはOFFとはならず、ONのままであ
る。次にもう一度「しようがわるい」と入力すると5−
10の画面になり、更に変換キーを打鍵すると5−11の画
面の様に変換結果が表示される。「仕様」の学習フラグ
がONのままなので、この変換結果は以前のオペレータの
選択操作通りである。更に読み列「そうさしよう」を入
力すると、5−12の画面になり、変換キーを打鍵すると
5−13の画面の様に、以前の選択通りに「操作しよう」
が第1候補で変換される。これ以降は「仕様が悪い」と
「操作しよう」を繰り返して入力してももはや選択操作
を行う必要がなくなる。FIG. 5 is a diagram showing an example of a conversion selection operation by the character processing device according to the present invention. 5-1 is a processing screen. 5
Reference numeral -2 denotes a screen when the reading column "Impossible" is input. Here, when the conversion key is pressed, the screen of 5-3 is displayed, and the reading sequence "Impossible" has been converted to "Poor use". There are candidates such as "use" and "specifications" for "shall", but "use" is generally converted to the first candidate because it has a higher frequency. When the operator presses the next candidate key, assuming that the conversion of “specification is bad” is desired, 5-
The screen shown in Fig. 4 is displayed. Here, a conversion candidate of "Let's" is displayed. The first candidate is “use” and the second candidate is “specification”
It is. The current candidate is the "spec" of the second candidate. Here, when the selection key is pressed, a screen 5-5 is displayed. The “specification” of the second candidate is determined and stored in the text data. At the same time, the learning flag of “specification” is turned on, and the priority is improved. Next, when "Let's do it" is input, the screen of 5-6 is displayed, and when the conversion key is further pressed, the screen of 5-7 is displayed. Since “specifications” have been learned, “operation specifications” are displayed as first candidates. Here, when the next candidate key is touched, a screen 5-8 is displayed, and the auxiliary word "shou" is displayed as a second candidate of "shou". Here, when the selection key is depressed, the screen of 5-9 is displayed, "Let's" is determined and stored in the text data. At the same time, supposed word
Is turned on, but unlike FIG. 2, the learning flag of the independent word "specification" is not turned off but remains on. Next, when you enter "I'm sorry" again, 5-
The screen of 10 is displayed, and when the conversion key is pressed again, the conversion result is displayed as in the screen of 5-11. Since the learning flag of “specification” remains ON, the conversion result is as the previous selection operation by the operator. Further, if you input the reading column "Sou Sasou", the screen of 5-12 appears, and when you press the conversion key, "Let's operate" according to the previous selection like the screen of 5-13.
Is converted as the first candidate. After this, even if the user repeatedly inputs "bad specifications" and "let's operate", it is no longer necessary to perform the selection operation.
第6図は本発明に係る文字処理装置による変換選択装
置の別の例を示した図である。6−1は初期画面であ
る。6−2は読み列「ごはたのしい」を入力した時の画
面を示している。ここで変換キーを打鍵すると6−3の
画面になり、読み列「ごはたのしい」が「五は楽しい」
と変換されている。「ご」には「五」「碁」などの候補
があるが、一般に「五」の方が頻度が高いので第1候補
に変換される。オペレータは「碁は楽しい」という変換
を望んだとして、次候補キーを打鍵すると6−4の画面
になる。ここで「ご」の変換候補が表示される。第1候
補は「五」であり、第2候補は「碁」である。ここで選
択キーを打鍵すると、6−5の画面になる。第2候補の
「碁」が確定してテキストデータの中に格納され、同時
に「碁」の学習フラグがONとなり、優先度が向上する。
次に「スペインごでは」と入力すると6−6の画面にな
り、更に変換キーを打鍵すると6−7の画面になる。
「碁」が学習されているので「(スペイン語では)碁で
は」が第1候補として表示されている。ここで次候補キ
ーを打鍵すると6−8の画面になり、「ごでは」の第2
候補として接尾語「語では」が表示される。ここで選択
キーを打鍵すると6−9の画面となり、「語では」が確
定してテキストデータに格納される。同時に接尾語「語
では」の学習フラグがONとなるが、第3図と異なり、名
詞「碁」の学習フラグはONのままである。次にもう一度
「ごは」と入力すると6−10の画面になり、更に変換キ
ーを打鍵すると6−11の画面の様に変換結果が表示され
る。「碁」の学習フラグがONのままなので、この変換結
果は以前のオペレータの選択操作通りである。更に読み
列は「スペインごでは」を入力すると、6−12の画面に
なり、変換キーを打鍵すると6−13の画面の様に、以前
の選択通りに「スペイン語では」が第1候補で変換され
る。これ以降は「碁は楽しい」と「スペイン語では」を
繰り返して入力してももはや選択操作を行なう必要はな
くなる。FIG. 6 is a diagram showing another example of the conversion selection device by the character processing device according to the present invention. 6-1 is an initial screen. 6-2 shows a screen at the time of inputting the reading sequence "Fun fun". If you press the conversion key here, the screen changes to 6-3.
Has been converted to. Although “go” includes candidates such as “go” and “go”, “go” is generally converted to the first candidate because it has a higher frequency. Assuming that the operator desires the conversion “Go is fun”, the next candidate key is pressed, and a screen 6-4 is displayed. Here, the conversion candidate of “go” is displayed. The first candidate is “five” and the second candidate is “go”. Here, when the selection key is pressed, a screen 6-6 is displayed. The second candidate “Go” is determined and stored in the text data, and at the same time, the “Go” learning flag is turned on, and the priority is improved.
Next, when "Spanish" is input, the screen of 6-6 appears, and when the conversion key is further pressed, the screen of 6-7 appears.
Since "go" has been learned, "(in Spanish) Go" is displayed as the first candidate. If you hit the next candidate key here, the screen 6-8 appears and the second
The suffix "word" is displayed as a candidate. Here, when the selection key is depressed, the screen of 6-9 is displayed, and "in words" is determined and stored in the text data. At the same time, the learning flag of the suffix “word” is turned on, but unlike FIG. 3, the learning flag of the noun “go” remains on. Next, if you input "goha" again, the screen of 6-10 is displayed, and if you press the conversion key, the conversion result is displayed as in the screen of 6-11. Since the “go” learning flag remains ON, the result of this conversion is as selected by the previous operator. If you enter "In Spanish" in the reading column, the screen becomes 6-12, and if you press the conversion key, the screen becomes 6-13. As in the previous selection, "In Spanish" is the first candidate. To be converted. After this, there is no longer any need to perform the selection operation even if "Go is fun" and "In Spanish" are repeatedly input.
第7図は本発明に係る文字処理装置による変換選択操
作の3番目の例を示した図である。7−1は初期画面で
ある。7−2は読み列「はかる」を入力した時の画面を
示している。ここで変換キーを打鍵すると7−3の画面
になり、読み列「はかる」が「計る」と変換されてい
る。「はかる」には「計る」「測る」「謀る」などの候
補があるが、一般に「計る」の方が頻度が高いので第1
候補に変換される。オペレータは「謀る」という変換を
望んだとして、次候補キーを2回打鍵すると7−4の画
面になる。ここで「はかる」の変換候補が表示される。
第1候補は「計る」、第2候補は「測る」、第3候補は
「謀る」である。ここで選択キーを打鍵すると、7−5
の画面になる。第3候補の「謀る」が確定してテキスト
データの中に格納され、同時に「謀る」の学習フラグが
ONとなり、優先度が向上する。次に「しんちょうをはか
る」と入力すると7−6の画面になり、更に変換キーを
打鍵すると7−7の画面になる。「身長を計る」「身長
を測る」という用例が用例辞書中に存在するので、「謀
る」が学習されているにもかかわらず、「身長を計る」
が第1候補として表示されている。ここで次候補キーを
打鍵すると7−8の画面になり、「はかる」の第2候補
として同じく用例の存在する「測る」が表示される。こ
こで選択キーを打鍵すると7−9の画面となり、「測
る」が確定してテキストデータに格納される。同時に
「測る」の学習フラグがONとなるが、第4図と異なり、
「謀る」の学習フラグはONのままである。同時に用例
「身長を計る」が抑制され、これ以降は「身長を計る」
という用例は使用されなくなる。次にもう一度「はか
る」と入力すると7−10の画面になり、更に変換キーを
打鍵すると7−11の画面の様に変換結果が表示される。
「謀る」の学習フラグがONのままなので、この変換結果
は以前のオペレータの選択操作通りである。更に読み列
「しんちょうをはかる」を入力すると、7−12の画面に
なり、変換キーを打鍵すると7−13の画面の様に、以前
の選択通りに「身長を測る」が第1候補で変換される。
これ以降は「謀る」と「身長を測る」を繰り返して入力
してももはや選択操作を行なう必要はなくなる。FIG. 7 is a diagram showing a third example of the conversion selection operation by the character processing device according to the present invention. 7-1 is an initial screen. 7-2 shows a screen at the time of inputting the reading string "Measure". When the user presses the conversion key, the screen changes to screen 7-3, and the reading string "Measure" is converted to "Measure". There are candidates for "measure" such as "measure", "measure", and "conspire", but in general, "measure" is more frequent, so
Converted to a candidate. Assuming that the operator desires the conversion of "conspiracy", if the next candidate key is pressed twice, a screen 7-4 is displayed. Here, a conversion candidate of “measure” is displayed.
The first candidate is “measure”, the second candidate is “measure”, and the third candidate is “mare”. If you hit the select key here, 7-5
Screen. The third candidate “conspiracy” is determined and stored in the text data.
Becomes ON, and the priority improves. Next, the screen of FIG. 7-6 is displayed when "Measure Shincho" is input, and the screen of 7-7 is displayed by further inputting the conversion key. Examples of "measure height" and "measure height" exist in the example dictionary, so "measure height" despite learning "conspiracy"
Is displayed as the first candidate. Here, when the next candidate key is pressed, a screen 7-8 is displayed, and "Measure," which also has an example, is displayed as the second candidate of "Haru". Here, when the selection key is depressed, a screen 7-9 is displayed, and "measure" is determined and stored in the text data. At the same time, the learning flag of "measure" is turned on, but unlike FIG.
The learning flag of "Take" remains ON. At the same time, the example "Measure height" is suppressed, and after that "Measure height"
Will no longer be used. Next, if "Haru" is input again, the screen 7-10 is displayed, and if the conversion key is further pressed, the conversion result is displayed as in the screen 7-11.
Since the learning flag of "pluck" remains ON, this conversion result is as the previous selection operation by the operator. Further, if you enter the reading column “Shincho wa”, the screen of 7-12 will appear, and if you press the conversion key, the screen of 7-13 will be displayed. As shown in the screen of 7-13, “Measure height” will be the first candidate. To be done.
After that, it is no longer necessary to perform the selection operation even if the user repeatedly inputs “attempt” and “measure height”.
第8図は入力バッファIBUF、出力バッファOBUFの構成
を示した図である。FIG. 8 is a diagram showing a configuration of the input buffer IBUF and the output buffer OBUF.
IBUF、OBUFともに同じ構成である。最初の2バイトは
各バッファのサイズ情報であり、バッファに格納されて
いる文字数から1を減じたものを2倍した数値が入る。
入力バッファの末尾にある「 」はそこで変換キーが打
鍵されたことを意味する。各文字は1文字2バイトで構
成され、JIS X 0208コード等で格納される。Both IBUF and OBUF have the same configuration. The first two bytes are size information of each buffer, and contain a value obtained by doubling a value obtained by subtracting 1 from the number of characters stored in the buffer.
The "" at the end of the input buffer means that the conversion key was hit there. Each character consists of 2 bytes per character and is stored in JIS X 0208 code or the like.
第9図は辞書DICの構成を示した図である。「読み」
「表記」「品詞」「標準頻度」「品詞細分類」「学習」
のフィールドから構成される。FIG. 9 is a diagram showing a configuration of the dictionary DIC. "reading"
"Notation""Part of speech""Standardfrequency""Part of speech classification""Learning"
Field.
「読み」には単語の読み、「表記」には単語の表記、
「品詞」には単語の品詞が格納される。"Yomi" is a word reading, "Notation" is a word notation,
The “part of speech” stores the part of speech of a word.
「標準頻度」は頻度情報等のその単語自体の尤もらし
さを示す情報が1〜5の値で格納される。尤度値5は最
も尤もらしいという意味であり、値が小さくなるにつれ
疑わしいと解釈される。尤度値0は全く考えられないと
いうことを意味するので単語尤度の値としては存在しな
い。In the “standard frequency”, information indicating the likelihood of the word itself such as frequency information is stored as a value of 1 to 5. A likelihood value of 5 means most likely and is interpreted as suspicious as the value decreases. Since the likelihood value 0 means that it cannot be considered at all, it does not exist as a word likelihood value.
「品詞細分類」にはその単語の品詞を更に細分類した
情報が格納される。例えば、接頭語は更に何種類かに細
分類され、品詞フィールドに接頭語と記入した場合には
接頭語の細分類情報を品詞細分類に記述する。接頭語
「逆」に対しては「接頭語23」という細分類コードを割
り振っている。名詞の場合には「抽象概念」「物品」
「行動」などの細分類情報が格納される。特に細分類情
報が存在しない品詞の場合(例えば、ラ行5段)には値
は入らない。In the “part of speech classification”, information obtained by further subdividing the part of speech of the word is stored. For example, prefixes are further subdivided into several types. When a prefix is entered in the part of speech field, the subclassification information of the prefix is described in the part of speech subclassification. For the prefix "reverse", a sub-classification code of "prefix 23" is assigned. In the case of a noun, "abstract concept""article"
The sub-classification information such as "action" is stored. In particular, in the case of a part of speech in which there is no detailed classification information (for example, 5 lines in a row), no value is entered.
「学習」は学習フラグであり、その単語が学習されて
いるかどうかを1ビットで示す。学習フラグがONになっ
ている単語は優先的に変換されることになる。ある単語
の状態は学習されているか、あるいは学習されていない
かの2状態しか存在しないので、これはすなわち、短期
学習方式である。"Learning" is a learning flag, and indicates by 1 bit whether or not the word is learned. Words for which the learning flag is ON are preferentially converted. This is a short term learning scheme, since there are only two states of a word, learned or unlearned.
第10図は用例辞書YDICの構成を示した図である。「第
1単語」「第2単語」「助詞」「用例抑制」のフィール
ドから構成される。FIG. 10 is a diagram showing a configuration of the example dictionary YDIC. It is composed of fields of "first word", "second word", "particle" and "example suppression".
「第1単語」「第2単語」には共起する単語のペアを
記述する。A pair of co-occurring words is described in “first word” and “second word”.
「助詞」には単語のペアを結び付ける助詞を記述す
る。"Particles" describe particles that connect word pairs.
「用例抑制」にはその用例を使用して良いかどうかを
示す情報が1ビットで格納される。0は抑制されないこ
とを意味し、1は抑制されることを意味する。初期状態
は0であり、その用例を使用しても構わないことを意味
する。Information indicating whether or not the example can be used is stored in 1-bit in the "example suppression". 0 means not suppressed and 1 means suppressed. The initial state is 0, which means that the example may be used.
図中に示される用例は「身長を/計る」「水深を/計
る」「身長を/測る」「委員会に/諮る」「推進を/図
る」なり、このパターンと一致した読み列が入力された
ときは、その用例辞書に示される表記が優先的に変換さ
れる。The examples shown in the figure are "Height / Measure", "Water depth / Measure", "Height / Measure", "Meet / Consult" / "Promote / Aim", and the reading string that matches this pattern is input. In this case, the notation shown in the example dictionary is preferentially converted.
第11図は文節候補テーブルBCTBLの概念を示した図で
ある。文節候補テーブルは入力読みの解析の結果、考え
られる文節候補をバイナリートリーで表現したものであ
る。図中、横線は子ポインタを意味し、縦線は弟ポイン
タを意味する。弟ポインタはある読み位置から始まる他
の文節候補(通常はより短い候補)をリンクし、子ポイ
ンタはその文節に引き続く文節候補をリンクする。FIG. 11 is a diagram showing the concept of the phrase candidate table BCTBL. The phrase candidate table is a representation of possible phrase candidates as a result of the analysis of the input reading in a binary tree. In the figure, a horizontal line indicates a child pointer, and a vertical line indicates a younger pointer. The younger brother pointer links other phrase candidates (usually shorter candidates) starting from a certain reading position, and the child pointer links a phrase candidate following the phrase.
入力読み列「しようがわるい」の先頭部分は「使用
が」「仕様が」「使用」「仕様」「死」などの解釈が存
在し、これらは順に弟ポインタ(縦線)でリンクされて
いる。At the beginning of the input reading string “Impossible”, there are interpretations such as “Use”, “Specification”, “Use”, “Specification”, and “Death”, and these are linked in order by a younger brother pointer (vertical line) .
「使用が」に引き続く文節は「悪い」が考えられ、子
ポインタでリンクされている。The clause following "use is" is considered "bad" and is linked by a child pointer.
この様な文節候補テーブルができ上がると、「使用が
悪い」「仕様が悪い」「使用側類」「使用が和類」など
と文節候補列を作成することは容易である。When such a phrase candidate table is completed, it is easy to create a phrase candidate sequence such as “bad use”, “poor specification”, “consideration type”, “use type”, and the like.
第12図は文節候補テーブルBCTBLの具体的構成を示し
た図である。FIG. 12 is a diagram showing a specific configuration of the phrase candidate table BCTBL.
「自立語」は文節候補の自立語が存在する辞書上の先
頭位置へポインタを格納する。The “independent word” stores a pointer to a head position on the dictionary where the independent word of the phrase candidate exists.
「付属語列」は2バイトで構成され、文節候補の自立
語に引き続ぐ付属語列を特定する領域である。先頭1バ
イトが入力バッファ上の付属語列先頭文字をインデック
スし、次の1バイトが入力バッファ上の付属語列の末尾
文字をインデックスする。例えば、第8図に示す入力バ
ッファのとき、「が」を表現するには第1バイトに6、
第2バイトに6を設定する。付属語列が存在しないとき
は図中で「φ」で示している。The “adjunct word string” is composed of 2 bytes, and is an area for specifying an adjunct word string following the independent word of the bunsetsu candidate. The first byte indexes the first character of the adjunct string in the input buffer, and the next byte indexes the last character of the adjunct string in the input buffer. For example, in the case of the input buffer shown in FIG.
Set 6 in the second byte. When there is no attached word string, it is indicated by “φ” in the figure.
「弟リンク」はその文節候補と同じ読み位置から始ま
る別の文節候補をリンクする。The “brother link” links another phrase candidate starting from the same reading position as the phrase candidate.
「子リンク」はその文節候補に引き続く文節候補をリ
ンクする。The “child link” links a phrase candidate that follows the phrase candidate.
なお、リンクは値0のときに終端することを意味す
る。Note that the link is terminated when the value is 0.
例えば、文節候補0(使用が)が弟リンクは1であ
り、文節候補1(仕様が)をリンクする。文節候補0
(新聞屋に)の子リンクは100であり、文節候補100(悪
い)をリンクする。文節候補100の子リンクは0であ
り、そこで入力読みが終端していることが分かる。For example, the phrase candidate 0 (use) has a younger brother link of 1, and the phrase candidate 1 (specification) is linked. Phrase candidate 0
The child link of (to the newspaper shop) is 100, and links the phrase candidate 100 (bad). The child link of the phrase candidate 100 is 0, which indicates that the input reading is terminated.
「自立部タイプ」はその文節の自立部のタイプを記述
する。これは隣接文節間の接続可能性を判定するときに
仕様される。例えば、0:抽象概念を示す名詞、1:人間を
示す名詞、2:サ変名詞、3:地名語幹、4:形容詞、などと
記述される。"Independent part type" describes the type of the independent part of the phrase. This is specified when determining the connectability between adjacent clauses. For example, 0: a noun indicating an abstract concept, 1: a noun indicating a human, 2: a noun, 3: a place name stem, 4: an adjective, and the like.
「文節タイプ」はその文節のタイプを記述する。これ
は隣接文節間の接続可能性を判定するときに使用され
る。例えば、0:抽象概念を示す名詞で終了する文節、1:
人間を示す名詞で終了する文節、2:サ変語幹で終了する
文節、3:地名語幹で終了する文節、4:形容詞終止形で終
了する文節、5:格助詞「に」で終了する文節、6:格助詞
「が」で終了する文節、などと記述される。“Clause type” describes the type of the clause. This is used to determine the possibility of connection between adjacent clauses. For example, 0: a clause ending with a noun indicating an abstract concept, 1:
Phrase ending with a noun that indicates a human, 2: Phrase ending with a phenomenon stem, 3: Phrase ending with a place name stem, 4: Phrase ending with an adjective ending form, 5: Phrase ending with the case particle "ni", 6 : Described as a clause ending with the case particle "ga".
第13図は文節間の接続可能性を判定する文節接続マト
リックスの構成を示した図である。FIG. 13 is a diagram showing the configuration of a phrase connection matrix for determining the possibility of connection between phrases.
第13図の(1)は文節とそれに後続する付属語の接続
可能性を判定するCTBL1である。1は接続可を意味し、
0は接続不可を意味する。例えば、文節タイプ=2の文
節の後に付属語125の文節は後続し得るが、文節タイプ
=3の文節の後に付属語125の文節は後続し得ないこと
がこれで分かる。(1) in FIG. 13 is a CTBL1 for determining the possibility of connection between a phrase and an attached word that follows it. 1 means connectable,
0 means that connection is not possible. For example, it can be seen that the phrase of the auxiliary word 125 can follow the phrase of the phrase type = 2, but the phrase of the auxiliary word 125 cannot follow the phrase of the phrase type = 3.
(2)は文節とそれに後続する接尾語の接続可能性を
判定するCTBL2である。1は接続可を意味し、0は接続
不可を意味する。例えば、文節タイプ=3の文節の後に
接尾語15の文節は後続し得るが、文節タイプ=2の文節
の後に接尾語15の文節は後続し得ないことがこれで分か
る。(2) is CTBL2 which determines the connection possibility of a phrase and a suffix following it. 1 means that connection is possible, and 0 means that connection is impossible. For example, it can be seen that a clause of suffix 15 can follow a clause of clause type = 3, but a clause of suffix 15 cannot follow a clause of clause type = 2.
(3)は接頭語とそれに後続する文節の接続可能性を
判定するCTBL3である。1は接続可を意味し、0は接続
不可を意味する。例えば、接頭語23の文節の後に自立部
タイプ=2の文節は後続し得るが、接頭語23の文節の文
節の後に自立部タイプ=3の文節は後続し得ないことが
これで分かる。(3) is CTBL3 for determining the possibility of connection between the prefix and the following clause. 1 means that connection is possible, and 0 means that connection is impossible. For example, it can be seen that a clause of prefix 23 can be followed by a clause of freestanding type = 2, but a clause of a clause of prefix 23 cannot be followed by a clause of freestanding type = 3.
第14図はテキストバッファTBUFの構成を示した図であ
る。FIG. 14 shows the structure of the text buffer TBUF.
テキストバッファは文字の羅列から構成され、各文字
は2バイトで構成される。各文字のMSBは同音語フラグ
であり、0は通常文字、1は同音語を意味する。残りの
15ビットは通常文字のときは文字コードを表現し、同音
語のときは同音語番号を表現する。文字コードは例え
ば、JIS X 0208コードを使用する。同音語番号は第15図
に示す同音語バッファDOBUF上のどの同音語であるかを
示す番号である。The text buffer is composed of a sequence of characters, and each character is composed of 2 bytes. The MSB of each character is a homophone word flag, 0 means a normal character, and 1 means a homophone word. Remaining
The 15 bits represent a character code for normal characters and a homophone number for homophones. As the character code, for example, JIS X 0208 code is used. The homophone number is a number indicating which homophone in the homophone buffer DOBUF shown in FIG.
第15図は同音語バッファDOBUFの構成を示した図であ
る。各同音語には同音語番号が付いており、それによっ
て識別される。FIG. 15 is a diagram showing the structure of the homophone buffer DOBUF. Each homonym has a homonym number and is identified by it.
各同音語は「読み」「候補総数」「現候補番号」「第
i候補情報」からなる。Each homonym is composed of “reading”, “total number of candidates”, “current candidate number”, and “i-th candidate information”.
「読み」はその同音語の読みを格納する。 "Reading" stores the reading of the same phonetic word.
「候補総数」はその同音に含まれる候補の総数を格納
する。The “total number of candidates” stores the total number of candidates included in the same sound.
「現候補番号」はその同音語の現在表示されている候
補番号が格納される。変換直後初値に第1候補が表示さ
れるから「1」が格納される。The "current candidate number" stores the currently displayed candidate number of the same phonetic word. Since the first candidate is displayed as the initial value immediately after the conversion, “1” is stored.
「第i候補情報」は各候補の「表記」「単語アドレ
ス」「適用意味分類」が格納される。In the “i-th candidate information”, “notation”, “word address”, and “applied meaning classification” of each candidate are stored.
「表記」にはその候補の表記が格納される」 「単語アドレス」にはその単語候補が辞書DIC上に存
在するアドレスを格納する。The “notation” stores the candidate notation. ”The“ word address ”stores the address where the word candidate exists on the dictionary DIC.
「適用可能用例番号」には、その候補に適用され得る
用例の用例番号を格納する。ここには、抑制されている
用例の番号も同様に記述する。一般には、その候補に適
用され得る用例は複数個存在するので、「適用可能用例
番号」は1候補につき複数個存在することもある。ま
た、全く存在しないときもある。The “applicable example number” stores an example number of an example that can be applied to the candidate. Here, the number of the suppressed example is also described. In general, since there are a plurality of examples that can be applied to the candidate, a plurality of “applicable example numbers” may exist for each candidate. In some cases, it does not exist at all.
第16図は文尤度の計算例を示した図である。文尤度は
文節候補列である文の尤もらしさを表現するものであ
り、値が大きいほ、尤もらしいことを意味する。FIG. 16 is a diagram showing an example of sentence likelihood calculation. The sentence likelihood expresses the likelihood of a sentence that is a phrase candidate sequence, and means that the larger the value, the more likely it is.
文尤度は、文節尤度の和、文節間尤度の和、用例尤度
の和を全て加算することにより計算される。The sentence likelihood is calculated by adding all of the sum of phrase likelihoods, the sum of inter-segment likelihoods, and the sum of example likelihoods.
文節尤度は各文節候補の尤もらしさを表現するもので
あり、値が大きいほど尤もらしいことを意味する。文節
尤度はその文節の自立語の辞書DICに記載されている標
準頻度が使用される。もし、学習フラグがONのときは更
に26が加算される。The phrase likelihood expresses the likelihood of each phrase candidate, and the larger the value, the more likely it is. As the phrase likelihood, a standard frequency described in a dictionary DIC of an independent word of the phrase is used. If the learning flag is ON, 26 is added.
文節間尤度は隣接する文節候補間の接続の尤もらしさ
を表現するものであり、本実施例では後続文節が付属語
のとき0、先行文節が接頭語のとき−10、後続文節が接
尾語のとき−10、その他のとき−20とする。このように
定めることにより、付属語は自立語より優先的に変換さ
れ、接頭語、接尾語は名詞より優先的に変換されること
になる。例えば、その文がn文節で構成されていたと
し、その全てが上記のその他の場合であれば、文節間は
(n−1)あるので、文節間尤度の和は−20(n−1)
となる。The inter-phrase likelihood expresses the likelihood of connection between adjacent phrase candidates. In this embodiment, the following phrase is 0 when the subsequent phrase is an adjunct, −10 when the preceding phrase is a prefix, and suffix is In this case, it is -10, and in other cases, it is -20. With this definition, the attached word is converted before the independent word, and the prefix and the suffix are converted before the noun. For example, if the sentence is composed of n clauses, and all of them are in the other cases described above, there is (n-1) between the clauses, and the sum of the likelihoods between the clauses is -20 (n-1 )
Becomes
用例尤度は各文節間に適用されている、用例の一つ一
つについて文尤度に加算される。30からその用例を適用
する際に飛び越す文節の数の10倍を減じたものが用例尤
度となる。The example likelihood is added to the sentence likelihood for each example used between each phrase. The example likelihood is obtained by subtracting 10 times the number of clauses skipped when applying the example from 30.
第17図は、第16図の文尤度の計算例を読み列「そうさ
しよう」について状況別に説明した図である。FIG. 17 is a diagram illustrating a calculation example of the sentence likelihood of FIG. 16 for the reading sequence “Let's do it” for each situation.
第17図の(1)は特に学習がされていない場合の「操
作/しよう」の計算例であり、文尤度は8である。(1) in FIG. 17 is a calculation example of “operation / let's go” when learning is not particularly performed, and the sentence likelihood is 8.
(2)は特に学習がされていない場合の「操作/仕
様」の計算例であり、文尤度は−12である。(2) is a calculation example of “operation / specification” when learning is not particularly performed, and the sentence likelihood is −12.
(3)は付属語「しよう」だけが学習がされている場
合の「操作/しよう」の計算例であり、文尤度は34であ
る。(3) is a calculation example of “operation / letter” when only the attached word “letter” is learned, and the sentence likelihood is 34.
(4)は自立語「仕様」だけが学習がされている場合
の「操作/仕様」の計算例であり、文尤度は14である。(4) is a calculation example of “operation / specification” when only the independent word “specification” is learned, and the sentence likelihood is 14.
すなわち、学習が何もない状態では「操作しよう」と
変換され、「仕様」のみが学習されている状態では「操
作仕様」と変換され、「しよう」のみが学習されている
状態では「操作しよう」と変換され、「しよう」と「仕
様」が両方学習されている状態では「操作しよう」と変
換されることが分かる。In other words, when there is no learning, it is converted to "Let's operate", when only "Specifications" is learned, it is converted to "Operation specifications", and when only "Let's learn" is learned, "Let's operate" It can be seen that when both "Let's" and "Specification" are learned, it is converted to "Let's operate".
第18図は、第16図の文尤度の計算例を読み列「スペイ
ンご」について状況別に説明した図である。FIG. 18 is a diagram for explaining a calculation example of the sentence likelihood of FIG. 16 for the reading sequence “Spain” according to the situation.
第18図の(1)は特に学習がされていない場合の「ス
ペイン/語」の計算例であり、文尤度は−2である。(1) in FIG. 18 is a calculation example of “Spain / language” when learning is not particularly performed, and the sentence likelihood is −2.
(2)は特に学習がされていない場合の「スペイン/
碁」の計算例であり、文尤度は−14である。(2) is "Spain /
This is a calculation example of “go”, and the sentence likelihood is −14.
(3)は接尾語「語」だけが学習がされている場合の
「スペイン/語」の計算例であり、文尤度は24である。(3) is a calculation example of "Spain / word" when only the suffix "word" is learned, and the sentence likelihood is 24.
(4)は自立語「碁」だけが学習がされている場合の
「スペイン/碁」の計算例であり、文尤度は15である。(4) is a calculation example of "Spain / Go" when only the independent word "Go" is learned, and the sentence likelihood is 15.
すなわち、学習が何もない状態では「スペイン語」と
変換され、「碁」のみが学習されている状態では「スペ
イン碁」と変換され、「語」のみが学習されている状態
では「スペイン語」と変換され、「碁」と「語」が両方
学習されている状態では「スペイン語」と変換されるこ
とが分かる。In other words, if there is no learning, it is converted to "Spanish", if only "Go" is learned, it is converted to "Spanish Go", and if only "word" is learned, it is converted to "Spanish" It can be seen that when both "go" and "word" are learned, they are converted to "Spanish".
第19図は、第16図の文尤度の計算例を読み列「しんち
ょうをはかる」について状況別に説明した図である。な
お、用例として「身長を測る」が登録されているものと
する。FIG. 19 is a diagram for explaining a calculation example of the sentence likelihood in FIG. 16 for a reading sequence “measurement” for each situation. It is assumed that “measuring height” is registered as an example.
第19図の(1)は特に学習がされていない場合の「身
長を/測る」の計算例であり、文尤度は18である。(1) in FIG. 19 is a calculation example of “measuring / height” when learning is not particularly performed, and the sentence likelihood is 18.
(2)は特に学習がされていない場合の「身長を/謀
る」の計算例であり、文尤度は−15である。(2) is a calculation example of “height / involvement” when no particular learning has been performed, and the sentence likelihood is −15.
(3)は「測る」だけが学習がされている場合の「身
長を/測る」の計算例であり、文尤度は44である。(3) is a calculation example of "height / measure" when only "measure" is learned, and the sentence likelihood is 44.
(4)は「謀る」だけが学習がされている場合の「身
長を/謀る」の計算例であり、文尤度は11である。(4) is a calculation example of "height / attempt" when only "attack" is learned, and the sentence likelihood is 11.
すなわち、学習が何もない状態では「身長を/測る」
と変換され、「謀る」のみが学習されている状態では
「身長を/測る」と変換され、「測る」のみが学習され
ている状態では「身長を/測る」と変換され、「謀る」
と「測る」が両方学習されている状態では「身長を/測
る」と変換されることが分かる。In other words, if there is no learning, "measure / height"
In the state where only "meaning" is learned, it is converted to "height / measure", and in the state where only "measurement" is learned, it is converted to "height / measure", and "meaning"
It can be seen that in the state where both "measurement" and "measurement" are learned, "height / measurement" is converted.
上述の実施例の動作を第20図〜第27図に示すフローチ
ャートに従って説明する。The operation of the above embodiment will be described with reference to the flowcharts shown in FIGS.
第20図はキー入力を取り込み、処理を行なう部分のフ
ローチャートである。FIG. 20 is a flow chart of a part for taking in a key input and performing processing.
ステップ20−1はキーボードからのデータを取り込む
処理である。ステップ20−2で取り込まれたキーの種別
を判定し、各キーの処理ルーチンに分岐する。Step 20-1 is a process for fetching data from the keyboard. The type of the key fetched in step 20-2 is determined, and the process branches to the processing routine for each key.
変換キーであったときはステップ20−3に分岐し、ス
テップ20−3において第21図に詳述するように仮名漢字
変換の変換処理が行なわれる。次候補キーであったとき
はステップ20−4において、第26図に詳述する次候補処
理を行なう。選択キーであったときはステップ20−5に
おいて第27図に詳述する選択処理を行なう。その他のキ
ーのときはステップ20−6に分岐し、挿入、削除等の通
常の文字処理装置において行なわれるその他の処理が行
なわれる。その後ステップ20−1にループする。If it is the conversion key, the process branches to step 20-3, and in step 20-3, the conversion process of kana-kanji conversion is performed as described in detail in FIG. If it is the next candidate key, the next candidate process described in detail in FIG. 26 is performed in step 20-4. If it is the select key, the selecting process detailed in FIG. 27 is performed in step 20-5. If the key is any other key, the process branches to step 20-6 to perform other processes such as insertion and deletion which are carried out in a normal character processing device. Then it loops to step 20-1.
第21図はステップ20−3の「変換処理」を詳細化した
フローチャートである。FIG. 21 is a detailed flowchart of the “conversion process” in step 20-3.
ステップ21−1において、第22図に詳述する文節候補
作成処理を行ない、文節候補テーブルBCTBLを作成す
る。In step 21-1, the phrase candidate table BCTBL is created by performing the phrase candidate creation process described in detail in FIG.
ステップ21−2において、第23図に詳述する第1候補
決定処理を行なう。In step 21-2, the first candidate determination process described in detail in FIG. 23 is performed.
ステップ21−3において、決定された第1候補に基づ
いて同音語バッファ及び変換結果を作成し、出力する。In step 21-3, a homophone word buffer and a conversion result are created and output based on the determined first candidate.
第22図はステップ21−1の「文節候補作成処理」を詳
細化したフローチャートである。FIG. 22 is a detailed flowchart of the “segment candidate creating process” in step 21-1.
ステップ22−1において、入力バッファインデックス
i、文節候補テーブルインデックスjを0に初期設定す
る。In step 22-1, the input buffer index i and the phrase candidate table index j are initialized to 0.
ステップ22−2においてiの示す入力バッファ中の読
みに基づき、辞書をサーチし、単語候補を求める。In step 22-2, a dictionary is searched for a word candidate based on the reading in the input buffer indicated by i.
ステップ22−3において、見つかった単語候補に対し
て接続する付属語列を解析する形態素解析処理を行な
う。この結果、文節候補が得られる。In step 22-3, a morphological analysis process is performed to analyze the attached word string connected to the found word candidate. As a result, a phrase candidate is obtained.
ステップ22−4において、形態素解析の結果に基づ
き、その文節の自立部タイプ、文節タイプを決定する。In step 22-4, the independent section type and the bunsetsu type of the bunsetsu are determined based on the result of the morphological analysis.
ステップ22−5において、文節接続マトリックスを参
照し、隣接文節の接続可能性を調べる。隣接文節と接続
し得る文節のみを残す。また、文節候補テーブル上での
子リンク、弟リンクを決定する。In step 22-5, the connectability of adjacent clauses is checked by referring to the clause connection matrix. Only the phrase that can be connected to the adjacent phrase is left. Further, a child link and a younger brother link on the phrase candidate table are determined.
ステップ22−6において得られた文節候補を文節候補
テーブルに格納する。格納する時はj+1番目のエント
リーに格納する。また、必要な情報を設定する。例え
ば、この文節候補を子、あるいは弟とする文節候補につ
いては、子リンク、弟リンクを設定する。格納後jの値
をカウントアップする。The phrase candidates obtained in step 22-6 are stored in the phrase candidate table. When storing, it is stored in the (j + 1) th entry. Also, set necessary information. For example, a child link and a younger brother link are set for a phrase candidate that has this phrase candidate as a child or a younger brother. After storage, the value of j is counted up.
ステップ22−7において文節候補テーブルからターミ
ネートしていない文節候補、すなわち、子リンクがまだ
決まっていない文節候補を見つけその次の読み位置をi
に代入する。In step 22-7, a bunsetsu candidate that has not been terminated, that is, a bunsetsu candidate whose child link has not been decided yet is found from the bunsetsu candidate table, and the next reading position is set to i.
Substitute for
ステップ22−8において、全ての文節候補の子リンク
が決定しているかどうか判定し、決定していないものが
あればステップ22−2に分岐する。そうでなければリタ
ーンする。In step 22-8, it is determined whether or not the child links of all the bunsetsu candidates have been decided, and if there are some that have not been decided, the process branches to step 22-2. Otherwise return.
第23図はステップ21−2の「第1候補決定処理」を詳
細化したフローチャートである。FIG. 23 is a detailed flowchart of the “first candidate determination process” in step 21-2.
ステップ23−1において、最尤文尤度を処理上許され
る最小値、例えば、−32767に初期設定する。In step 23-1, the maximum likelihood sentence likelihood is initialized to the minimum value permitted in processing, for example, -32767.
ステップ23−2において文節候補テーブルより文節候
補列を1つ取り出す。In step 23-2, one phrase candidate string is extracted from the phrase candidate table.
ステップ23−3において、第24図に詳述するようにそ
の取り出された文節候補列に適用可能な用例を検索し、
用例尤度の和である「用例尤度和」を算出する。In step 23-3, an example applicable to the extracted phrase candidate sequence is searched as detailed in FIG. 24,
“Example likelihood sum” which is a sum of example likelihoods is calculated.
ステップ23−4において、文節候補列の文尤度を第16
図に示す様に算出する。In step 23-4, the sentence likelihood of the phrase candidate sequence is set to 16th.
It is calculated as shown in the figure.
ステップ23−5において、算出された文尤度が最尤文
尤度より尤もらしいか、具体的には大きいかを判定し、
大きいときはステップ23−6において最尤文尤度を算出
された文尤度に更新する。また、ステップ23−7におい
て現在の文節候補列を最尤文尤度に対応した文節候補列
として記憶する。In step 23-5, it is determined whether the calculated sentence likelihood is more likely than the maximum likelihood sentence likelihood, specifically, larger,
If it is larger, the maximum likelihood sentence likelihood is updated to the calculated sentence likelihood in step 23-6. In step 23-7, the current phrase candidate sequence is stored as the phrase candidate sequence corresponding to the maximum likelihood sentence likelihood.
ステップ23−8において文節候補テーブルから別の文
節候補列が取り出せるかどうかを判定し、取り出せると
きはステップ23−2に分岐する。そうでないときはリタ
ーンする。In step 23-8, it is determined whether another phrase candidate string can be extracted from the phrase candidate table, and if it can be extracted, the process branches to step 23-2. If not, return.
これにより、最尤文尤度を算出するもとになった文節
候補列が第1候補として決定される。Thereby, the phrase candidate sequence from which the maximum likelihood sentence likelihood is calculated is determined as the first candidate.
第24図はステップ23−3の「用例尤度和の算出」を詳
細化したフローチャートである。FIG. 24 is a detailed flowchart of the “calculation of the example likelihood sum” in step 23-3.
ステップ24−1において、用例尤度和をまず0に初期
設定する。In step 24-1, the example likelihood sum is first initialized to 0.
ステップ24−2において、文節候補列から1文節を基
準文節として取り出す。以下の処理ではこの基準文節に
関係する用例の尤度を求めることになる。At step 24-2, one phrase is extracted as a reference phrase from the phrase candidate sequence. In the following processing, the likelihood of the example related to this reference clause is obtained.
ステップ24−3において基準文節を取り出せたかどう
か判定し、取り出せなかったときはリターンする。In step 24-3, it is judged whether or not the reference phrase can be extracted, and if not extracted, the process returns.
ステップ24−4において最尤用例尤度を0に初期設定
する。In step 24-4, the maximum likelihood likelihood is initialized to 0.
ステップ24−5において、基準文節とペアになる文節
を文節候補列から取り出す。In step 24-5, a phrase paired with the reference phrase is extracted from the phrase candidate string.
ステップ24−6において、基準文節のペア文節を取り
出すことができなかったときは、それ以上の基準文節の
処理を諦め、ステップ24−9に分岐する。In step 24-6, when the pair phrase of the standard phrase cannot be extracted, the process of the further standard phrase is abandoned and the process branches to step 24-9.
ステップ24−7において、第25図に詳述するように、
基準文節とペア文節の間の用例が適用されているかどう
かを調べ、その適用状況に応じて用例尤度を設定する。In step 24-7, as detailed in FIG. 25,
It is checked whether the example between the standard clause and the pair clause is applied, and the example likelihood is set according to the application situation.
ステップ24−8において、求まった用例尤度が最尤用
例尤度より尤もらしい(すなわち大きいか)かどうかを
調べ、尤もらしければ(すなわち大きければ)、用例尤
度の値を最尤用例尤度に代入する。その後ステップ24−
5に分岐し、別のペアについて用例尤度を求める。In step 24-8, it is checked whether or not the obtained example likelihood is more likely (that is, larger) than the maximum likelihood example likelihood, and if there is likelihood (that is, larger), the value of the example likelihood is set to the maximum likelihood example likelihood. To. Then step 24-
Branch to 5 and find the example likelihood for another pair.
ステップ24−9において、基準文節の処理が終ったの
で、次の基準文節の処理に移るが、未処理の文節が残っ
ているかどうか判定する。残っていないときはそのまま
リターンするが、残っているときはステップ24−10に分
岐し、前回求まった最尤用例尤度を用例尤度和に加算す
る。その後、ステップ24−2にループし、次の基準文節
を取り出す。In step 24-9, since the processing of the standard clause is completed, the processing moves to the next standard clause, but it is determined whether or not there is any unprocessed clause. If not, the process returns as it is, but if it remains, the process branches to step 24-10 to add the maximum likelihood example likelihood obtained last time to the example likelihood sum. Then, it loops to step 24-2 and takes out the next reference clause.
第25図はステップ24−7の「用例尤度の値設定」を詳
細化したフローチャートである。FIG. 25 is a detailed flowchart of the “setting of example likelihood value” in step 24-7.
ステップ25−1において、基準文節とペア文節の2文
節間に適用される用例があるかどうか、を判断する。こ
のときは、抑制されている用例は適用しないよう処理す
る。In step 25-1, it is judged whether or not there is an example applied between two clauses of the standard clause and the pair clause. At this time, processing is performed so that the suppressed example is not applied.
適用用例がないときはステップ25−2に分岐し、用例
尤度に0を代入し、リターンする。If there is no application example, the process branches to step 25-2, 0 is assigned to the example likelihood, and the process returns.
適用用例があるときはステップ25−3に分岐し、用例
尤度として30を代入する。If there is an application example, the process branches to step 25-3 and 30 is substituted as the example likelihood.
ステップ25−4において2文節間の距離、すなわち、
飛び越す文節の数を求め、その値に10を乗じて用例尤度
から減算する。もし、隣接する2文節であれば、飛び越
す文節は0であるので、用例尤度から0を減じることに
なる。In step 25-4, the distance between two clauses, that is,
Find the number of bunsetsu to jump, multiply by 10 and subtract from the example likelihood. If there are two adjacent clauses, the number of skipped clauses is 0, and thus 0 is subtracted from the example likelihood.
ステップ25−5において上記計算された用例尤度の値
が負になっていないかどうか判定し、負のときはステッ
プ25−6において0になるように補正し、リターンす
る。負でないときは値をいじらずにそのままリターンす
る。In step 25-5, it is determined whether or not the calculated example likelihood value is negative, and if negative, the value is corrected to 0 in step 25-6, and the process returns. If it is not negative, return without changing the value.
第26図はステップ20−4の「次候補処理」を詳細化し
たフローチャートである。FIG. 26 is a detailed flowchart of the "next candidate process" of step 20-4.
ステップ26−1において、次候補を見るべき同音語の
同音語番号をテキストバッファTBUFより求める。At step 26-1, the homophone word number of the homophone to see the next candidate is obtained from the text buffer TBUF.
ステップ26−2において、同音語番号から同音語バッ
ファの位置を求めて、現候補番号をカウントアップす
る。In step 26-2, the position of the homophone word buffer is obtained from the homophone word number, and the current candidate number is counted up.
ステップ26−3において、候補一覧を表示する。 In step 26-3, the candidate list is displayed.
第27図はステップ20−5の「選択処理」を詳細化した
フローチャートである。FIG. 27 is a detailed flowchart of the "selection process" of step 20-5.
ステップ27−1において、選択すべき同音語の同音語
番号をテキストバッファTBUFより求める。In step 27-1, the homophone number of the homophone to be selected is obtained from the text buffer TBUF.
ステップ27−2において、同音語番号から同音語バッ
ファの位置を求めて、現候補番号の示す候補情報から表
記を取り出し、テキストバッファTBUFに確定文字として
設定する。In step 27-2, the position of the homophone word buffer is obtained from the homophone word number, the notation is extracted from the candidate information indicated by the current candidate number, and is set as the fixed character in the text buffer TBUF.
ステップ27−3において、同様に、現候補番号の示す
候補情報から単語アドレスを求め、その示された単語の
学習フラグをONする。Similarly, in step 27-3, the word address is obtained from the candidate information indicated by the current candidate number, and the learning flag of the indicated word is turned ON.
ステップ27−4において、同様に、現候補番号の示す
候補情報から適用可能用例番号を求め、その示された用
例の用例抑制フラグをOFFにする。Similarly, in step 27-4, the applicable example number is obtained from the candidate information indicated by the current candidate number, and the example suppression flag of the indicated example is turned off.
ステップ27−5において、選択された候補と対立する
候補、すなわち、候補一覧上で選択候補よりも上位に表
示される候補を1つずつ取り出す。In step 27-5, candidates that conflict with the selected candidate, that is, candidates that are displayed higher than the selected candidate in the candidate list are taken out one by one.
ステップ27−6において、全ての対立候補について処
理が終り、これ以上取り出せなくなれば、リターンす
る。In step 27-6, the processing is completed for all the conflict candidates, and if no more candidates can be extracted, the process returns.
ステップ27−7において、選択候補及び対立候補の属
するカテゴリーすなわち品詞を調べ、対立候補のカテゴ
リーが選択候補のカテゴリーよりも優先度の低いカテゴ
リーであれば、対立候補の学習フラグを操作せずにその
ままステップ27−5にループする。例えば、選択候補が
接頭語で対立候補が名詞のときはステップ27−5にルー
プする。また、選択候補が付属語で対立候補が名詞、動
詞などの自立語であればステップ27−5にループする。In step 27-7, the category to which the selection candidate and the confrontation candidate belong, that is, the part-of-speech is examined. Loop to step 27-5. For example, when the selection candidate is the prefix and the conflict candidate is the noun, the process loops to step 27-5. If the selection candidate is an adjunct word and the conflict candidate is an independent word such as a noun or a verb, the process loops to step 27-5.
ステップ27−8において、選択候補に用例が適用され
ているかどうかを判定し、用例が適用されていないとき
はステップ27−10に分岐する。In step 27-8, it is determined whether or not the example is applied to the selection candidate, and if the example is not applied, the process branches to step 27-10.
選択候補に用例が適用されているとき、ステップ27−
9において、対立候補に用例が適用されているかどうか
を判定し、用例が適用されているときはステップ27−10
に分岐する。選択候補に用例が適用されているが、対立
候補には用例が適用されていないとき、対立候補の学習
フラグを操作せずにそのままステップ27−5にループす
る。When the example is applied to the selection candidates, step 27-
In 9, it is determined whether or not the example is applied to the conflict candidate, and if the example is applied, step 27-10.
Branch to When the example is applied to the selection candidate but the example is not applied to the conflict candidate, the learning flag of the conflict candidate is not operated and the process directly loops to step 27-5.
選択候補に用例が適用されないとき、或いは、選択候
補、対立候補の両方に用例が適用されているとき、ステ
ップ27−10において、まず、対立候補に適用される用例
の用例抑制フラグをONし、その用例が今後仕様されない
様にする。When the example is not applied to the selection candidate, or when the example is applied to both the selection candidate and the conflict candidate, in step 27-10, first, turn on the example suppression flag of the example applied to the conflict candidate, Make sure that the example is not specified in the future.
次にステップ27−11において、対立候補の学習フラグ
をOFFする。その後、ステップ27−5にループする。Next, at step 27-11, the learning flag of the conflict candidate is turned off. Then, it loops to step 27-5.
[他の実施例] 以上の説明において、付属語と自立語が対立する場
合、名詞と接尾語或いは接頭語が対立する場合、用例の
適用されている候補と用例の適用されていない候補が対
立する場合、の3つの場合について、対立候補の短期学
習OFF処理を説明した。[Other Embodiments] In the above description, when an adjunct and an independent word conflict, when a noun and a suffix or prefix conflict, a candidate to which an example is applied and a candidate to which no example is applied conflict. In the three cases described above, the short-term learning OFF processing of the conflict candidate has been described.
本発明の本質は、選択単語の学習の際に補正される情
報(学習情報)の範囲を最小限にとどめようというもの
である。従って、本発明は短期学習に限定されず、他の
学習に対しても容易に適用でき、顕著な効果を期待でき
る。The essence of the present invention is to minimize the range of information (learning information) that is corrected when learning a selected word. Therefore, the present invention is not limited to short-term learning, but can be easily applied to other learning, and significant effects can be expected.
例えば、学習方式が頻度学習方式の場合にも、本発明
は適用可能である。このときは、選択単語の頻度がカウ
ントアップされ、その頻度値が最大値に達したとき、対
立する単語の頻度をカウントダウンすることになるが、
カウントダウンするまでもなく選択単語が第1候補で変
換できるかどうか判定(具体的には、両者の頻度値を比
較)し、変換できるときは対立単語の頻度カウントダウ
ン処理を行なわないよう構成すれば良い。For example, the present invention is also applicable when the learning method is a frequency learning method. At this time, the frequency of the selected word is counted up, and when the frequency value reaches the maximum value, the frequency of the conflicting word is counted down,
It is sufficient to determine whether the selected word can be converted as the first candidate without counting down (specifically, compare the frequency values of both), and if the conversion can be performed, the frequency countdown processing of the contradictory word may not be performed. .
例えば、学習方式が、学習された単語を辞書の形式で
登録していく方式(学習辞書方式)のときも、本発明は
適用可能である。このときは、選択単語を学習辞書に登
録し、同時に対立する単語を学習辞書から追い出すこと
になるが、追い出す必要性があるかどうかを判定してか
ら、対立単語の追い出し処理を行なうよう構成すれば良
い。For example, the present invention is also applicable when the learning method is a method of registering learned words in a dictionary format (learning dictionary method). In this case, the selected word is registered in the learning dictionary, and at the same time, the opposing words are expelled from the learning dictionary. Good.
また、学習した単語の辞書上でのアドレスを記憶する
方式(学習単語アドレス記憶方式)も考えられる。この
ときは、選択単語のアドレスを学習データとして記憶
し、対立する単語のアドレスを削除することになるが、
削除する必要性があるかどうかを判定してから、対立単
語アドレスの削除処理を行なうよう構成すれば良い。Further, a method of storing addresses of learned words on a dictionary (learning word address storage method) is also conceivable. In this case, the address of the selected word is stored as learning data, and the address of the conflicting word is deleted.
After determining whether or not there is a need to delete, it is sufficient to perform a process of deleting the conflicting word address.
[発明の効果] 以上説明したように、本発明によれば、選択された候
補の学習データを向上させるとともに、選択された単語
に用例が適用されていれば、選択された単語より上位の
候補の単語のうち、用例が適用されていると判定された
単語の優先度を低下させ、用例が適用されていないと判
定された単語の学習データを不変とし、選択された候補
以外の候補の学習データを不必要に変更することを防止
でき、ある単語に対して設定されていた学習データによ
る学習効果が、不必要に消えてしまうことが防止できる
という効果がある。[Effects of the Invention] As described above, according to the present invention, the learning data of the selected candidate is improved, and if the example is applied to the selected word, the candidate higher than the selected word is selected. Among the words, the priority of the words that are determined to be applied to the example is lowered, the learning data of the words that are determined to be not applied to the example are made invariant, and learning of candidates other than the selected candidate is performed. It is possible to prevent the data from being unnecessarily changed, and to prevent the learning effect of the learning data set for a certain word from being unnecessarily erased.
これにより変換率の高い、快適な文字処理装置を実現
することができる。As a result, a comfortable character processing device with a high conversion rate can be realized.
第1図は本発明に係る文字処理装置の全体構成のブロッ
ク図、 第2図〜第4図は従来装置における変換・学習の操作例
を示した図、 第5図〜第7図は本発明における変換・学習の操作例を
示した図、 第8図は本発明における入力バッファIBUFと出力バッフ
ァOBUFの構成を示した図、 第9図は本発明における仮名漢字変換用辞書DICの構成
を示した図、 第10図は本発明における用例辞書YDICの構成を示した
図、 第11図は本発明における文節候補テーブルBCTBLの記憶
内容を概念的に示した図、 第12図は本発明における文節候補テーブルBCTBLの構成
を示した図、 第13図は本発明における文節接続マトリックスCTBL1、C
TBL2、CTBL3の構成を示した図、 第14図は本発明におけるテキストバッファTBUFの構成を
示した図、 第15図は本発明における同音語バッファDOBUFの構成を
示した図、 第16図は本発明における尤度計算の方式を示した図、 第17図〜第19図は本発明における尤度計算の例を示した
図、 第20図〜第27図は本発明文字処理装置の動作を示すフロ
ーチャート。 DISK……外部記憶部 CPU……マイクロプロセッサ ROM……読出し専用メモリ RAM……ランダムアクセスメモリ IBUF……入力バッファ OBUF……出力バッファ DIC……仮名漢字変換用辞書 YDIC……用例辞書 BCTBL……文節候補テーブル CBUF1……文節接続マトリックス1(文節×付属語用) CBUF2……テキストバッファ2(文節×接尾語用) CBUF3……テキストバッファ3(接頭語×文節用) TBUF……テキストバッファ DOBUF……同音語バッファFIG. 1 is a block diagram of the overall configuration of a character processing device according to the present invention, FIGS. 2 to 4 are diagrams showing an operation example of conversion / learning in a conventional device, and FIGS. 5 to 7 are present inventions. 8 shows an example of conversion / learning operation in FIG. 8, FIG. 8 shows a configuration of an input buffer IBUF and an output buffer OBUF in the present invention, and FIG. 9 shows a configuration of a kana-kanji conversion dictionary DIC in the present invention. FIG. 10, FIG. 10 is a diagram showing the configuration of the example dictionary YDIC in the present invention, FIG. 11 is a diagram conceptually showing the storage contents of the phrase candidate table BCTBL in the present invention, and FIG. 12 is a phrase in the present invention. FIG. 13 is a diagram showing the structure of the candidate table BCTBL, and FIG. 13 is a clause connection matrix CTBL1, C in the present invention.
FIG. 14 is a diagram showing a configuration of a text buffer TBUF in the present invention, FIG. 15 is a diagram showing a configuration of a homophone buffer DOBUF in the present invention, and FIG. FIGS. 17 to 19 show an example of the likelihood calculation in the present invention, and FIGS. 20 to 27 show the operation of the character processing device of the present invention. flowchart. DISK …… External storage CPU …… Microprocessor ROM …… Read only memory RAM …… Random access memory IBUF …… Input buffer OBUF …… Output buffer DIC …… Kana-to-Kanji conversion dictionary YDIC …… Example dictionary BCTBL …… clause Candidate table CBUF1 …… clause connection matrix 1 (for clause × annex) CBUF2 …… text buffer 2 (for clause × suffix) CBUF3 …… text buffer 3 (for prefix × clause) TBUF …… text buffer DOBUF …… Homophone buffer
フロントページの続き (72)発明者 池田 和世 東京都大田区下丸子3丁目30番2号 キ ヤノン株式会社内 (56)参考文献 特開 平1−229369(JP,A)Front page continuation (72) Inventor Kazuyo Ikeda 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (56) Reference JP-A-1-229369 (JP, A)
Claims (3)
する記憶手段と、 共起関係にある複数の単語の組を用例として記憶する用
例記憶手段と、 前記入力手段より入力された読みに対して、前記記憶手
段及び前記用例記憶手段を参照し、用例の適用される単
語及び学習データの表わす優先度の高い単語を優先させ
て、第1候補の単語を決定し、当該第1候補の単語の表
記を表示する第1候補表示手段と、 前記第1候補より下位の候補の表記を表示する次候補表
示手段と、 該次候補表示手段または前記第1候補表示手段により表
記が表示された候補より1つの候補を選択する選択手段
と、 該選択手段により選択された単語の優先度を向上させる
ように、当該単語の学習データを更新する学習手段と、 前記選択された単語及び当該選択された単語より上位の
候補の各単語に対して、用例が適用されているか否かを
判定する判定手段と、 該判定手段による判定の結果に基づいて、前記選択され
た単語に用例が適用されていれば、前記上位の候補の単
語のうち、用例が適用されていると判定された単語の優
先度を低下させ、用例が適用されていないと判定された
単語の学習データを不変とするように制御する抑制手段
とを具備したことを特徴とする文字処理装置。1. An input unit for inputting a reading, a storage for storing a reading of a word, a notation, and learning data in association with each other, and an example of storing a set of a plurality of words having a co-occurrence relationship as an example. With respect to the reading input by the storage unit and the input unit, the storage unit and the example storage unit are referred to, the word to which the example is applied and the word with high priority represented by the learning data are given priority, and First candidate display means for determining one candidate word and displaying the notation of the first candidate word, next candidate display means for displaying notation of candidates lower than the first candidate, and next candidate display means Alternatively, the learning data of the word is updated so that the priority of the word selected by the selecting means for selecting one candidate from the candidates displayed by the first candidate displaying means and the word selected by the selecting means is improved. Learning means and Determination means for determining whether or not an example is applied to each of the selected word and each candidate word higher than the selected word; and the selection based on the result of the determination by the determination means. If the example has been applied to the word that has been applied, among the words of the upper candidates, lower the priority of the word that is determined that the example is applied, the word that is determined that the example is not applied And a suppressing means for controlling the learning data of 1. to be unchanged.
の結果、前記選択された単語に用例が適用されていない
と判定された場合に、前記上位の候補の各単語の優先度
を低下させるように制御することを特徴とする請求項1
に記載の文字処理装置。2. The suppressing means lowers the priority of each word of the upper candidates when it is judged by the judgment means that the example is not applied to the selected word. The control is performed as follows.
The character processing device described in.
語と独立な状態を取り得る1ビットの学習フラグであ
り、前記第1候補表示手段は、学習フラグがオンである
単語を優先させ、前記学習手段は、選択された単語の学
習フラグをオンし、前記抑制手段は、単語の学習フラグ
をオフすることにより当該単語の優先度を低下させるこ
とを特徴とする請求項1に記載の文字処理装置。3. The learning data is a 1-bit learning flag in which each word can be in a state independent of other words, and the first candidate display means gives priority to a word whose learning flag is ON, The character according to claim 1, wherein the learning unit turns on a learning flag of the selected word, and the suppressing unit lowers the priority of the word by turning off the learning flag of the word. Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2229673A JP2675912B2 (en) | 1990-08-30 | 1990-08-30 | Character processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2229673A JP2675912B2 (en) | 1990-08-30 | 1990-08-30 | Character processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04111045A JPH04111045A (en) | 1992-04-13 |
JP2675912B2 true JP2675912B2 (en) | 1997-11-12 |
Family
ID=16895893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2229673A Expired - Fee Related JP2675912B2 (en) | 1990-08-30 | 1990-08-30 | Character processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2675912B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6549851B2 (en) | 2015-01-30 | 2019-07-24 | 三星ダイヤモンド工業株式会社 | Texturing method for sliding member |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62267862A (en) * | 1986-05-15 | 1987-11-20 | Ricoh Co Ltd | Kana/kanji conversion processor |
JPH01229369A (en) * | 1988-03-09 | 1989-09-13 | Canon Inc | Character processor |
-
1990
- 1990-08-30 JP JP2229673A patent/JP2675912B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04111045A (en) | 1992-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5257186A (en) | Digital computing apparatus for preparing document text | |
JP2675912B2 (en) | Character processor | |
JP2899087B2 (en) | Character processor | |
JP2714239B2 (en) | Character processor | |
JPH07334499A (en) | Input device for character string | |
JP2714238B2 (en) | Character processor | |
JP2000057134A (en) | Documentation device | |
JP2698458B2 (en) | Character processor | |
JP3847801B2 (en) | Character processing apparatus and processing method thereof | |
JPH03266066A (en) | Character-string substitution system with attribute | |
JP2786260B2 (en) | Kana-Kanji conversion device | |
JPH0410052A (en) | Preparing retrieving device for electronic dictionary of foreign language | |
JP3278148B2 (en) | Character processing apparatus and method | |
JP3524189B2 (en) | Character processor | |
JPH0640328B2 (en) | Character processor | |
JPH0638260B2 (en) | Character processing apparatus and method | |
JPH08241315A (en) | Word registering mechanism for document processor | |
JPH0638261B2 (en) | Character processing apparatus and method | |
JPH0877159A (en) | Learning method | |
JPH0697454B2 (en) | Character processor | |
JPH0628064B2 (en) | Character processor | |
JPH07306856A (en) | Character processor and its method | |
JPH04160668A (en) | Character processor | |
JPH10247192A (en) | Kana-to-kanji conversion device | |
JPH0576064B2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |