JPH03167657A - Character processor - Google Patents

Character processor

Info

Publication number
JPH03167657A
JPH03167657A JP1309997A JP30999789A JPH03167657A JP H03167657 A JPH03167657 A JP H03167657A JP 1309997 A JP1309997 A JP 1309997A JP 30999789 A JP30999789 A JP 30999789A JP H03167657 A JPH03167657 A JP H03167657A
Authority
JP
Japan
Prior art keywords
candidate
semantic
dictionary
conversion
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1309997A
Other languages
Japanese (ja)
Other versions
JP2698458B2 (en
Inventor
Eiichiro Toshima
英一朗 戸島
Yuji Kobayashi
雄二 小林
Kazuyo Ikeda
和世 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1309997A priority Critical patent/JP2698458B2/en
Publication of JPH03167657A publication Critical patent/JPH03167657A/en
Application granted granted Critical
Publication of JP2698458B2 publication Critical patent/JP2698458B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the conversion efficiency of examples by adopting the semantics examples of higher priorities which are described in a word dictionary to decide a 1st candidate for KANA (Japanese syllabary)/KANJI (Chinese character) conversion when the conflict of semantics examples occurs for an input read string. CONSTITUTION:A KANA character string, e.g., 'YAOYA NI ITSUTA', etc., inputted via a keyboard KB is stored in a key input buffer area IBUF of a RAM under the control of a CPU. Then the KANA characters like 'YAOYA', etc., are converted into KANJI by reference to a KANA/KANJI conversion dictionary area DIC. The area DIC stores the semantic sorts like the place, the human, etc., of the converted KANJI and the priorities corresponding to the semantic sorts as well as the converted KANJI itself as the stepped likelihood value. An examples dictionary area YDIC is referred to in response to the likelihood value so that an example like 'YAOYA NI ITTA (gone)' not 'YAOYA NI ITTA (said)' is decided as a 1st conversion candidate if 'YAOYA' has the highest priority as a place. Thus the proper KANA/KANJI conversion is carried out for the homonym KANA character strings with high conversion efficiency.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は仮名漢字変換により漢字仮名混り文を入力する
文字処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a character processing device for inputting a sentence containing kanji and kana through kana-kanji conversion.

[従来の技術] 現在、日本ワードプロセッサなどの文字処理装置は,・
菓字仮名混り文の入力を仮名漢字変換を使って行なうこ
とが一般的である。
[Prior art] Currently, character processing devices such as Japanese word processors are...
It is common to use kana-kanji conversion to input sentences containing sweet characters and kana.

仮名漢字変換は辞書を参照することにより、入力された
読み列を漢字に変換するものである。辞書においては各
単語に対して名詞、サ変名詞、副詞、形容詞、形容動詞
等の品詞情報が記述されており、仮名漢字変換は読み列
を解析して可能な文節候補を作成し、それらを組み合わ
せて変換候補を決定し、尤もらしい順に提示する。提示
された変換候補の中からオペレータが望む候補を選択す
る。
Kana-kanji conversion converts the input pronunciation sequence into kanji by referring to a dictionary. In dictionaries, part-of-speech information such as noun, sa-hen noun, adverb, adjective, and adjective verb is written for each word, and kana-kanji conversion analyzes the pronunciation sequence to create possible clause candidates and combines them. conversion candidates are determined and presented in order of likelihood. The operator selects a desired candidate from among the presented conversion candidates.

例えば、読み列「しんぶんやにいった」に対しては「新
聞屋に」 「新聞屋」 「新聞や」 「新聞」「ヤニ」
 「矢に」 「矢」 「似」 「言った」 「行ったj
などの文節候補が作或され、これらを組み合わせた「新
聞屋に言った」 「新聞屋に行った」が変換候補として
出力表示される。「言った」 「行った」の中では、ど
ちらの頻度が高いとは言えないので、どちらが第1候補
としては変換されるとは限らない。
For example, for the pronunciation sequence ``Shinbunya ni Ita'', ``Newspaper shop'', ``Newspaper store'', ``Newspaper shop'', ``Newspaper'', ``Yani'' are used.
``to the arrow''``arrow''``similar''``said'' ``went j
Clause candidates such as ``I told the newspaper shop'' and ``I went to the newspaper shop'', which are a combination of these, are output and displayed as conversion candidates. Since it cannot be said which of "said" and "done" has a higher frequency, it is not necessarily converted as the first candidate.

そこで、変換率を高めるために用例変換という手法が提
案されている。用例変換は、共起する単語のベア(用例
)を予め用例辞書中に登録しておき、変換時に用例辞書
を参照し、第1候補を用例辞書中の用例に従って変更す
る手法である。例えば、「委員会に/諮る」というパタ
ーンを用例辞書に記憶しておき、「いいんかいにはかっ
た」という入力に対しては「委員会に諮った」が第1候
補として変換される様にする。
Therefore, a method called example conversion has been proposed to increase the conversion rate. Example conversion is a method in which bears (examples) of co-occurring words are registered in advance in an example dictionary, the example dictionary is referred to at the time of conversion, and the first candidate is changed according to the example in the example dictionary. For example, if you store the pattern ``to/consult with a committee'' in the example dictionary, then ``consult with the committee'' will be converted as the first option when inputting ``Iinkai ni Hatta''. Make it.

上記の例は単語と単語の関係を記述した個別用例の例で
あるが、意味分類との関係を記述した意味用例というも
のも提案されている。例えば、「〜にいった」という文
脈においては「〜」が場所を表わすときには「行った」
という表記が尤もらしく、r〜」が人間を表わすときに
は「言った」という表記が尤もらしい。この変換を正し
く行なうために「《人間》に/言う」「《場所》に/行
く」という意味用例を用例辞書にあらかじめ登録してお
くのである。なお、《人間》 《場所》などは意味分類
であり、辞書中の全ての単語には《人間》であるか《場
所》であるかそうでないかが記述されている。この仕組
みにより「市長に言った」 「市役所に行った」などを
正しく変換することところが、従来の用例変換の技術は
、複数の用例が適用可能なとき、すなわち、用例が競合
するとき、どの用例を優先すれば良いかは特に指定して
いなかった。わずかに個別用例と意味用例が競合したと
きは個別用例を優先するという指針が示されているぐら
いであり、その他の状況においてはどの用例を優先して
良いかが分からなかった。
The above example is an example of an individual usage example that describes the relationship between words, but semantic usage examples that describe the relationship with semantic classification have also been proposed. For example, in the context of "I went to...", when "..." represents a place, "I went to..."
The notation ``said'' is plausible, and when ``r~'' represents a human being, the notation ``said'' is plausible. In order to perform this conversion correctly, examples of meaning such as ``to say to a person'' and ``to go to a place'' are registered in advance in the example dictionary. Note that words such as ``human'' and ``place'' are semantic classifications, and all words in the dictionary are described as being ``human'', ``place'', or not. With this mechanism, it is possible to correctly convert sentences such as "I told the mayor" and "I went to the city hall."However, conventional example conversion techniques are difficult to use when multiple examples are applicable, that is, when there are conflicts, which example is used? There was no specific specification as to which should be prioritized. There is only a guideline to give priority to the individual example when there is a slight conflict between the individual example and the semantic example, but in other situations it was unclear which example should be given priority.

そのため、適当な用例を採用して、適当に第1候補が決
めていたため、微妙な状況での変換率が芳本発明は、単
語辞書中に記憶された意味分類に対して、優先度を記述
し、変換時に複数の意味用例が競合したとき、優先度の
高い意味分類を使用した意味用例を優先的に採用し、第
1候補を決定することにより、用例変換の変換率の向上
を狙うものである。
Therefore, since the first candidate was determined appropriately by adopting an appropriate usage example, the conversion rate in delicate situations was excellent.The present invention describes the priority for the semantic classification stored in the word dictionary. , when multiple semantic examples compete during conversion, the semantic example using a high-priority semantic classification is preferentially adopted and the first candidate is determined, aiming to improve the conversion rate of example conversion. be.

[実施例] 以下図面を参照しながら本発明を詳細に説明する。[Example] The present invention will be described in detail below with reference to the drawings.

第1図は本発明の全体構成の一例である。FIG. 1 is an example of the overall configuration of the present invention.

図示の構成において、CPUは、マイクロプロセッサで
あり、文字処理のための演算、論理判断等を行ない、ア
ドレスバスAB、コントロールバスCB、データパスD
Bを介して、それらのバスに接続された各構或要素を制
御する。
In the illustrated configuration, the CPU is a microprocessor that performs calculations, logical judgments, etc. for character processing, and is connected to an address bus AB, a control bus CB, and a data path D.
B to control each component connected to those buses.

アドレスバスABはマイクロプロセッサCPUの制御の
対象とする構成要素を指示するアドレス信号を転送する
。コントロールバスCBはマイクロプロセッサCPUの
制御の対象とする各構成要素のコントロール信号を転送
して印加する。データパスDBは各構成機器相互間のデ
ータの転送を行なう。
Address bus AB transfers address signals indicating the components to be controlled by the microprocessor CPU. The control bus CB transfers and applies control signals for each component to be controlled by the microprocessor CPU. The data path DB transfers data between each component device.

つぎにROMは、読出し専用の固定メモリであり、第1
2図〜第19図につき後述するマイクロプロセッサCP
Uによる制御の手順を記憶させておく。
Next, ROM is a read-only fixed memory, and the first
Microprocessor CP, which will be described later in FIGS. 2 to 19.
The control procedure by U is memorized.

また、RAMは、1ワード16ビットの構成の書込み可
能のランダムアクセスメモリであって、各構成要素から
の各種データの一時記憶に用いる。I BUFはキー人
力されたキーデータを記憶する入カバッファであり、O
BUFは仮名漢字変換された結果を一時的に記憶する出
力バッファである。DICは仮名漢字変換を行なうため
の辞書である。YDICは単語ある違背未分類間の共起
関係を記述した用例辞書である。BCTBLは変換途中
の文節候補を記憶する文節候補テーブルである。TBU
Fはテキストバッファであり、入力編集中のテキストデ
ータが記憶される。DOBUFは同音語バッファであり
、テキストバッファTBUFに記憶される文字に同音語
候補が存在するときはその候補が記憶される。
Further, the RAM is a writable random access memory having a configuration of 1 word and 16 bits, and is used for temporary storage of various data from each component. I BUF is an input buffer that stores key data entered manually, and O
BUF is an output buffer that temporarily stores the results of kana-kanji conversion. DIC is a dictionary for performing kana-kanji conversion. YDIC is an example dictionary that describes the co-occurrence relationship between certain words and unclassified words. BCTBL is a phrase candidate table that stores phrase candidates that are currently being converted. TBU
F is a text buffer in which text data being input and edited is stored. DOBUF is a homophone buffer, and when a homophone candidate exists for a character stored in the text buffer TBUF, that candidate is stored.

KBはキーボードであって、アルファベットキひらかな
キー、カタカナキー等の文字記号入力キー、及び、変換
キー、次候補キー、選択キー等の本文字処理装置に対す
る各種機能を指示するための各種のファンクションキー
を備えている。
KB is a keyboard, which includes character symbol input keys such as alphabetical hirakana keys and katakana keys, and various functions for instructing various functions to this character processing device, such as conversion keys, next candidate keys, and selection keys. Comes with a key.

DISKは文書データを記憶するための外部記憶部であ
り、テキストバッファTBUF上に作成された文書の保
管を行ない、保管された文書はキーボードの指示により
、必要な時呼び出される。
The DISK is an external storage section for storing document data, and stores documents created on the text buffer TBUF, and the stored documents can be called up when necessary by instructions from the keyboard.

CRはカーソルレジスタである。CPUにより、カーソ
ルレジスタの内容を読み書きできる。
CR is a cursor register. The CPU can read and write the contents of the cursor register.

後述するCRTコントローラCRTCは、ここに蓄えら
れたアドレスに対応する表示装置CRT上の位置にカー
ソルを表示する。
A CRT controller CRTC, which will be described later, displays a cursor at a position on the display device CRT corresponding to the address stored here.

DBUFは表示用バッファメモリで、表示すべきデータ
のパターンを蓄える。テキストの内容を表示するときは
テキストバッファTBUFの内容に応じて表示パターン
がDBUFに作成されることにより、表示されることに
なる。
DBUF is a display buffer memory that stores data patterns to be displayed. When displaying text contents, a display pattern is created in DBUF according to the contents of text buffer TBUF, and the text is displayed.

CRTCはカーソルレジスタCR及びバッファDBUF
に蓄えられた内容を表示器CRTに表示する役割を担う
CRTC is cursor register CR and buffer DBUF
It plays the role of displaying the contents stored in the CRT on the display device CRT.

またCRTは陰極線管等を用いた表示装置であり、その
表示装置CRTにおけるドット構成の表示パターンおよ
びカーソルの表示をCRTコントローラで制御する。
Further, a CRT is a display device using a cathode ray tube or the like, and a CRT controller controls the dot-configured display pattern and cursor display on the display device CRT.

さらに、CGはキャラクタジェネレー夕であって、表示
装置CRTに表示する文字、記号のパターンを記憶する
ものである。
Furthermore, CG is a character generator that stores patterns of characters and symbols to be displayed on the display device CRT.

かかる各構成要素からなる本発明文字処理装置において
は、キーボードKBからの各種の人力に応じて作動する
ものであって、キーボードKBからの入力が供給される
と、まず、インタラブト信号がマイクロプロセッサCP
Uに送られ、そのマイクロプロセッサCPUがROM内
に記憶してある各種の制御信号を読出し、それらの制御
信号に従って各種の制御が行なわれる。
The character processing device of the present invention, which is composed of each of these components, operates in response to various human inputs from the keyboard KB, and when an input from the keyboard KB is supplied, an interact signal is first sent to the microprocessor CP.
The microprocessor CPU reads various control signals stored in the ROM, and various controls are performed in accordance with these control signals.

第2図は本発明装置による変換例を示した図である。図
中r/Jはそこで変換キーを打鍵するという意味である
FIG. 2 is a diagram showing an example of conversion by the apparatus of the present invention. In the figure, r/J means that the conversion key is pressed there.

「やおやにいった」と入力した場合は、第1候補として
「八百屋に行った」と変換される。これは用例辞書に「
《場所》に/行く」という意味用例が登録されており、
「八百屋」の意味分類として《場所》が登録されている
からである。この様な用例変換の仕組みがないと、「い
った」については「行った」 「言った」 「要った」
などの同音語があるので、正しく変換されるとは限らな
くなってしまう。また、第2候補としては「八百屋に言
った」と変換される。これは用例辞書に「《人間》に/
言う」という意味用例が登録されており、「八百屋」の
意味分類として《人間》が登録されているからである。
When "I went to Yaoya" is input, the first option is converted to "I went to a greengrocer." This is written in the example dictionary as "
An example of the meaning "to/go to a place" has been registered,
This is because "place" is registered as a semantic classification for "greengrocer." Without this kind of example conversion mechanism, ``I went'' would be replaced with ``I went,'' ``I said,'' and ``I needed.''
Because there are homophones such as , there is no guarantee that it will be converted correctly. Furthermore, the second option is converted to "I told the greengrocer." This is written in the usage dictionary as ``to ``human''/
This is because the semantic example of "say" is registered, and "human" is registered as the semantic classification of "greengrocer".

「八百屋」については意味分類として《人間》よりも《
場所》の方の優先度を高くしているのでこの様に変換さ
れるのである。
Regarding "greengrocer", the semantic classification is "human" rather than "human".
It is converted like this because the priority is given to "Location".

次の例は「しんぶんやにいった」と入力した場合である
。「新聞屋」と言う単語にも意味分類として《人間》 
《場所》の両方が登録されているが、「新聞屋」の場合
には《人間》の優先度を《場所》より高くしているので
、第1の例と異なり、第1候補が「新聞屋に言った」第
2候補が「新聞屋に行った」となる。
The next example is when you enter "I went to Shinbunya." The word ``newspaper shop'' also has the meaning ``human'' in it.
Both "Location" are registered, but in the case of "Newspaper Store", "Human" is given higher priority than "Location", so unlike the first example, the first candidate is "Newspaper". The second option is ``I went to the newspaper store.''

第3図は本発明装置による意味分類の学習の例を示した
図である。3−1はまず初期画面を示したものである。
FIG. 3 is a diagram showing an example of learning of semantic classification by the apparatus of the present invention. 3-1 shows the initial screen.

3−2は読み列「しんぶんやにいった」を入力した時の
画面を示している。カーソルは入力読み列の次に表示さ
れている。ここで変換キーを打鍵すると3−3の画面に
なる。3−3では読み列「しんぶんやにいった」が「新
聞屋に言った」と変換されている。「新聞屋Jは意味分
類として《人間》 《場所》を持っており、「《人間》
に/言う」「《場所》に/行く」という用例が存在する
が、「新聞屋」については最も優先度が高い《人間》の
用例が適用されて変換されている。オペレータは「新聞
屋に行った」という変換を望んだとして、次候補キーを
打鍵すると3−4の画面になる。ここで「いった」の変
換候補が表示される。第1候補は「言った」であり、第
2候補は「行った」である。現在の候補は第2候補の「
行った」であり、2が反転表示している。ここで選択キ
ーを打鍵すると、3−5の画面になる。
3-2 shows the screen when the reading string ``Shinbunya niita'' is input. The cursor is displayed next to the input reading sequence. If you press the conversion key here, the screen 3-3 will appear. In 3-3, the reading sequence ``I went to the Shinbunya'' is converted to ``I told the newspaperman.'' ``Newspaper store J has ``human'' and ``place'' as semantic classifications, and ``human''
There are examples such as ``to/say'' and ``to/go to <place>,'' but for ``newspaper shop,'' the usage example for ``human'', which has the highest priority, is applied and converted. Assuming that the operator desires the conversion ``I went to the newspaper store'', when he presses the next candidate key, the screen 3-4 appears. Here, conversion candidates for “ita” are displayed. The first candidate is "said" and the second candidate is "did." The current candidate is the second candidate “
"I went," and 2 is highlighted. If you press the selection key here, the screen 3-5 will appear.

第2候補の「行った」が確定してテキストデータの中に
格納され、同時に「新聞屋」の意味分類《場所》が学習
され、優先度が向上する。もう一度「しんぶんやにいっ
た」と入力すると3−6の画面になる。更に変換キーを
打鍵すると3−7の画面になり、今度は意味分類《場所
》が学習されているので、優先的に適用され、第1候補
として「新聞屋に行った」が表示されている。
The second candidate "I went" is determined and stored in the text data, and at the same time, the semantic classification "location" of "newspaper shop" is learned and the priority is improved. If you enter "I went to Shinbunya" again, the screen shown in 3-6 will appear. If you press the conversion key again, the screen shown in 3-7 will appear, and this time the semantic classification ``location'' has been learned, so it will be applied preferentially, and ``I went to the newspaper store'' will be displayed as the first option. .

第4図は大カバッファIBUF、出力バッファOBUF
の構成を示した図である。
Figure 4 shows large buffer IBUF and output buffer OBUF.
FIG.

IBUF、OBUFともに同じ構成である。最初の2バ
イトは各バッファのサイズ情報であり、バッファに格納
されている文字数から1を減じたものを2倍した数値が
入る。大カバッファの末尾にあるr/Jはそこで変換キ
ーが打鍵されたことを意味する。各文字は1文字2バイ
トで構成され、JIS X 0208コード等で格納さ
れる。
Both IBUF and OBUF have the same configuration. The first two bytes are size information for each buffer, and contain a value obtained by subtracting 1 from the number of characters stored in the buffer and multiplying by 2. r/J at the end of the large buffer means that the conversion key was pressed there. Each character consists of 2 bytes and is stored in JIS X 0208 code or the like.

第5図は辞書DICの構成を示した図である。FIG. 5 is a diagram showing the configuration of the dictionary DIC.

「読み」 「表記」 「品詞」 「単語尤度」 「意味
分類」のフィールドから構成される。
It consists of fields for ``pronunciation,''``orthography,'' ``part of speech,'' ``word likelihood,'' and ``semantic classification.''

「読み」には単語の読み、「表記」には単語の表記、「
品詞」には単語の品詞が格納される.「単語尤度」は頻
度情報等のその単語自体の尤もらしさを示す情報が1〜
5の値で格納される。
"Yomi" means the reading of the word, "notation" means the notation of the word, "
``Part of speech'' stores the part of speech of a word. "Word likelihood" is information indicating the likelihood of the word itself, such as frequency information, from 1 to
Stored as a value of 5.

尤度値5は最も尤もらしいという意味であり、値が小さ
くなるにつれ疑わしいと解釈される。尤度値Oは全く考
えられないということを意味するので単語尤度の値とし
ては存在しない。
A likelihood value of 5 means the most likely, and the smaller the value, the more doubtful it is. Since the likelihood value O means that it is completely unthinkable, it does not exist as a word likelihood value.

「意味分類」にはその単語の意味分類が、《組織》 《
場所》 《人間》などと、一般には複数個記述される。
``Semantic classification'' shows the meaning classification of the word, ``Organization'' ``
It is generally described in multiple terms, such as place》《human being》.

更に、各意味分類のそれぞれに、その単語をその意味分
類に属すると解釈した場合の尤もらしさ(優先度情報)
が1〜5の値で格納される。優先度5は最も尤もらしい
という意味であり、値が小さくなるにつれ疑わしいと解
釈される。優先度Oは全く考えられないということを意
味するので値としては存在しない。ただし、意味分類は
その単語が名詞の場合のみ記述される。
Furthermore, for each semantic classification, the likelihood of interpreting the word as belonging to that semantic classification (priority information) is determined.
is stored as a value of 1 to 5. Priority 5 means the most likely, and the smaller the value, the more doubtful it is. Priority O means that it cannot be considered at all, so it does not exist as a value. However, semantic classification is only described when the word is a noun.

第6図は用例辞@YDICの構成を示した図である。「
第1単語」 「第2単語」 「助詞」 「優先度」のフ
ィールドから構成される。
FIG. 6 is a diagram showing the structure of the example dictionary @YDIC. "
It consists of fields for 1st word, 2nd word, particle, and priority.

「第1単語」 「第2単語」には共起する単語のペアを
記述する。もし、個別用例ではなくて意味用例であると
きは単語の代わりに意味分類が記述される。
"First word" and "Second word" describe pairs of words that co-occur. If it is not an individual example but a semantic example, the semantic classification is written instead of the word.

「助詞」には単語のベアを結び付ける助詞を記述する。"Particle" describes the particle that connects the bare words.

「優先度」にはその用例の尤もらしさを示す清報が1〜
5の値で格納される。尤度値5は最も尤もらしいという
意味であり、値が小さくなるにつれ疑わしいと解釈され
る。尤度値Oは全く考えられないということを意味する
ので優先度の値としては存在しない。
"Priority" indicates the likelihood of the example from 1 to 1.
Stored as a value of 5. A likelihood value of 5 means the most likely, and the smaller the value, the more doubtful it is. Since the likelihood value O means that it is completely unthinkable, it does not exist as a priority value.

すなわち、図中に示される用例は「《場所》に/行<」
(優先度2)「《人間》に/言う」 (優先度2)「委
員会に/諮る」 (優先度5)「《動物》を/飼育する
」 (優先度2)となる。
In other words, the example shown in the diagram is "at <<location>>/line<"
(Priority 2) "Tell a human being" (Priority 2) "Consult with a committee" (Priority 5) "Raise an animal" (Priority 2)

なお、意味用例は一般に個別用例よりも優先度が低く押
えてある。こうすることにより、「個別用例は意味用例
に優先する」という原則が自然と実現されることになる
Note that semantic examples are generally given lower priority than individual examples. By doing this, the principle that ``individual usage takes precedence over semantic usage'' will be naturally realized.

第7図は文節候補テーブルBCTBLの概念を示した図
である。文節候補テーブルは入力読みの解析の結果、考
えられる文節候補をパイナリートリーで表現したもので
ある。図中、横線は子ポインタを意味し、縦線は弟ポイ
ンタを意味する。弟ポインタはある読み位置から始まる
他の文節候補(通常はより短い候補)をリンクし、子ポ
インタはその文節に引き続く文節候補をリンクする。
FIG. 7 is a diagram showing the concept of the phrase candidate table BCTBL. The phrase candidate table is a pinary tree representation of possible phrase candidates as a result of analyzing the input reading. In the figure, horizontal lines mean child pointers, and vertical lines mean younger brother pointers. The younger brother pointer links other clause candidates (usually shorter candidates) starting from a certain reading position, and the child pointer links the clause candidates that follow that clause.

入力読み列「しんぶんやにいった」の先頭部分は「新聞
屋に」 「新聞屋」 「新聞や」 「新聞」などの解釈
が存在し、これらは順に弟ポインタ(縦糸泉)でリンク
されている。
The first part of the input pronunciation string ``Shinbunya ni Ita'' has interpretations such as ``newspaper shop'', ``newspaper shop'', ``newspaper shop'', and ``newspaper'', and these are linked in order by younger brother pointers (warp springs). There is.

「新聞屋に」に引き続く文節は「言った」が考えられ、
子ポインタでリンクされている。
The phrase that follows ``to the newspaper shop'' is thought to be ``said.''
Linked by child pointer.

この様な文節候補テーブルができ上がると、「新聞屋に
言った」 「新聞屋に行った」 「新聞や似言った」 
「新聞ヤニ行ったjなどと文節候補列を作成することは
容易である。
Once a phrase candidate table like this is created, it can be summarized as ``I told the newspaper shop,'' ``I went to the newspaper shop,'' or ``I said something similar to the newspaper.''
``It is easy to create a phrase candidate string such as ``newspaper yani go datta j''.

第8図は文節候補テーブルBCTELの具体的構成を示
した図である。
FIG. 8 is a diagram showing the specific structure of the clause candidate table BCTEL.

「自立語」は文節候補の自立語が存在する辞書上の先頭
位置へポインタを格納する。
"Independent word" stores a pointer to the top position in the dictionary where the independent word of the bunsetsu candidate exists.

「付属語列」は2バイトで構成され、文節候補の自立語
に引き続く付属語列を特定する領域である。先頭1バイ
トが入カバッファ上の付属語列先頭文字をインデックス
し、次の1バイトが入カバッファ上の付属語列の末尾文
字をインデックスする。例えば、第4図に示す大カバッ
ファのとき、「った」を表現するには第1バイトに14
、第2バイトに16を設定する。付属語列が存在しない
ときは図中で「φ」で示している。
The "adjunct word string" consists of 2 bytes, and is an area for specifying the adjunct word string that follows the independent word of the bunsetsu candidate. The first byte indexes the first character of the adjunct word string on the input buffer, and the next one byte indexes the last character of the adjunct word string on the input buffer. For example, when using the large buffer shown in Figure 4, to express ``ta'', the first byte contains 14
, set 16 in the second byte. When an adjunct word string does not exist, it is indicated by "φ" in the figure.

「弟リンク」はその文節候補と同じ読み位置から始まる
別の文節候補をリンクする。
"Little brother link" links another clause candidate that starts from the same reading position as the clause candidate.

「子リンク」はその文節候補に引き続く文節候補をリン
クする。
A "child link" links a clause candidate that follows the clause candidate.

なお、リンクは値Oのときに終端することを意味する。Note that the link is terminated when the value is O.

例えば、文節候補O(新聞屋に)の弟リンクは50であ
り、文節候補50(新聞屋)をリンクする。文節候補O
(新聞屋に)の子リンクは500であり、文節候補50
0(言った)をリンクする。文節候補500の子リンク
はOであり、そこで入力読みが終端していることが分か
る。
For example, the younger brother link of clause candidate O (to a newspaper shop) is 50, which links clause candidate 50 (newspaper shop). Clause candidate O
The child link of (to the newspaper shop) is 500, and there are 50 phrase candidates.
Link 0 (said). The child link of the bunsetsu candidate 500 is O, and it can be seen that the input reading ends there.

第9図はテキストバッファTBUFの構成を示した図で
ある。
FIG. 9 is a diagram showing the structure of the text buffer TBUF.

テキストバッファは文字の羅列から構成され、各文字は
2バイトで構成される。各文字のMSBは同音語フラグ
であり、Oは通常文字、lが同音語を意味する。残りの
15ビットは通常文字のときは文字コードを表現し、同
音語のときは同音語番号を表現する。文字コードは例え
ば、JIS X 0208コードを使用する。同音語番
号は第10図に示す同音語バッファDOBUF上のどの
同音語であるかを示す番号である。
A text buffer consists of a sequence of characters, each character consisting of 2 bytes. The MSB of each letter is a homophone flag, O means a normal letter, and l means a homophone. The remaining 15 bits represent the character code in the case of a normal character, and the homophone number in the case of a homophone. For example, the JIS X 0208 code is used as the character code. The homophone number is a number indicating which homophone is on the homophone buffer DOBUF shown in FIG.

第10図は同音語バッファDOBUFの構成を小した図
である。各同音語には同音語番号が付いており、それに
よって識別される。
FIG. 10 is a diagram showing a smaller configuration of the homophone buffer DOBUF. Each homophone is identified by a homophone number.

各同音語は「読みj 「候補総数」 「現候補番号」 
「第i候補清報」からなる。
Each homophone is ``pronunciation j ``Total number of candidates'' ``Current candidate number''
Consists of "I-th Candidate Information".

「読み」はその同音語の読みを格納する。"Yomi" stores the reading of its homophone.

「候補総数」はその同音に含まれる候補の総数を格納す
る。
"Total number of candidates" stores the total number of candidates included in the same sound.

「現候補番号」はその同音語の現在表示されでいる候補
番号が格納される。変換直後初値に第1候補が表示され
るから「1」が格納される。
The "current candidate number" stores the currently displayed candidate number of the homophone. Since the first candidate is displayed as the initial value immediately after conversion, "1" is stored.

「第i候補情報」は各候補の「表記」 「単語アドレス
」 「適用意味分類」が格納される。
The "i-th candidate information" stores the "notation", "word address", and "applied meaning classification" of each candidate.

「表記」にはその候補の表記が格納される。"Notation" stores the notation of the candidate.

「単語アドレス」 「適用意味分類」には、その候補に
適用される意味用例があったとき、意味用例が記述する
意味分類とマッチする単語の存在アドレスと、その意味
分類コードを格納する。通常、その候補に適用される用
例は複数個存在するので、「存在アドレス」 「適用意
味分類」には複数個の分類が入る。
``Word Address'' and ``Applicable Semantic Classification'' store the existence address of a word that matches the semantic classification described by the semantic example and its semantic classification code when there is a semantic example applied to the candidate. Usually, there are multiple usage examples applicable to the candidate, so multiple classifications are included in the ``existence address'' and ``applicable meaning classification.''

例えば、「新聞屋に言った」と変換された場合、候補「
言った」については、「単語アドレス」として「新聞屋
」のアドレス、「適用意味分類」として《人間》が格納
される。もし、「新聞室に行った」と変換されたときは
、候補「行った」について、「単語アドレス」として「
新聞屋」、「適用意味分類」として《場所》が格納され
る。
For example, if it is converted to "I told the newspaperman," the candidate "
For "Said," the address of "newspaper shop" is stored as the "word address," and "human" is stored as the "applied meaning classification." If it is converted to ``I went to the newspaper room,'' the candidate ``I went to the newspaper room'' will be changed to ``Word Address.''
``Location'' is stored as ``Newspaper Store'' and ``Applicable Semantic Classification.''

第11図は文尤度の計算例を示した図である。FIG. 11 is a diagram showing an example of calculating sentence likelihood.

文尤度は文節候補列である文の尤ちらしさを表現するも
のであり、値が大きいほど尤もらしいことを意味する。
Sentence likelihood expresses the likelihood of a sentence that is a clause candidate sequence, and the larger the value, the more likely it is.

文尤度は、文節尤度の和、文節間尤度の和、用例尤度の
和を全て加算することにより計算される。
The sentence likelihood is calculated by adding the sum of clause likelihoods, the sum of inter-clause likelihoods, and the sum of example likelihoods.

文節尤度は各文節候補の尤もらしさを表現するものであ
り、値が大きいほど尤ちらしいことを意味する。文節尤
度はその文節の自立語の辞書DICに記載されている単
語尤度が使用される。
The clause likelihood expresses the likelihood of each clause candidate, and the larger the value, the more likely it is. As the clause likelihood, the word likelihood described in the independent word dictionary DIC of the clause is used.

文節間尤度は隣接する文節候補間の接続の尤もらしさを
表現するものであり、本実施例では値一20で固定とす
る。その文がn文節で構成されていたとすると、文節間
は(n−1)あるので、文節間尤度の和は必ず−20(
n−1)となる。
The inter-clause likelihood expresses the likelihood of a connection between adjacent clause candidates, and is fixed at a value of -20 in this embodiment. If the sentence is composed of n clauses, there are (n-1) between clauses, so the sum of the inter-clause likelihoods is always -20(
n-1).

用例尤度は各文節間に適用されている、用例の一つ一つ
について文尤度に加算される。用例尤度は個別用例の場
合と意味用例の場合で計算式が異なる。個別用例の場合
、各用例に記述されている優先度の4倍から、その用例
を適用する際に飛び越す文節の数の2倍を減じたものが
用例尤度となる。意味用例の場合、各用例に記述されて
いる優先度の4倍に意味分類の優先度を乗じ5を除した
ものから、その用例を適用する際に飛び越す文節の数の
2倍を減じたものが用例尤度となる。
The example likelihood is added to the sentence likelihood for each example applied between each clause. The calculation formula for example likelihood differs depending on whether it is an individual example or a semantic example. In the case of individual examples, the example likelihood is obtained by subtracting twice the number of clauses to be skipped when applying the example from four times the priority described in each example. In the case of semantic examples, the priority written in each example is multiplied by 4 times the priority of the semantic classification, divided by 5, minus twice the number of clauses to be skipped when applying the example. is the example likelihood.

第11図によると、「新聞屋に/行った」の文尤度は−
8.2であり、「新聞屋に/言った」の文尤度は−6.
6であるので、文尤度の値の大きい例2の「新聞屋に言
った」が第1位に変換されることが分かる。
According to Figure 11, the sentence likelihood of "I went to the newspaper store" is -
8.2, and the sentence likelihood of "I told the newspaperman" is -6.
6, it can be seen that "I told the newspaperman" in Example 2, which has a large value of sentence likelihood, is converted to the first place.

この様に正しく変換される理由は、例1では「新聞屋」
が解釈される意味分類《場所》の優先度が3であるのに
対し、例2で「新聞屋」が解釈される意味分類《人間》
の優先度は4であり、「新聞屋」を《人間》と解釈する
文の方が有利に変換されるからである。
The reason why it is converted correctly in this way is that in example 1, "newspaper shop"
In Example 2, the priority of the semantic category "Place" that is interpreted is 3, whereas in Example 2, the semantic category "Human" is interpreted as "Newspaper store".
This is because the priority is 4, and a sentence that interprets "newspaperman" as "human" is more advantageously converted.

なお、《人間》と《場所》の優先度を逆転させれば、第
1候補と第2候補が逆の順に変換されることになる。
Note that if the priorities of "person" and "place" are reversed, the first and second candidates will be converted in the opposite order.

上述の実施例の動作をフローに従って説明する。The operation of the above embodiment will be explained according to the flow.

第12図はキー人力を取り込み、処理を行なう部分のフ
ローチャートである。
FIG. 12 is a flowchart of the part that takes in key human power and performs processing.

ステップ12−1はキーボードからのデータを取り込む
処理である。ステップ12−2で取り込まれたキーの種
別を判定し、各キーの処理ルーチンに分岐する。
Step 12-1 is a process of capturing data from the keyboard. In step 12-2, the type of the retrieved key is determined, and the process branches to a processing routine for each key.

変換キーであったときはステップ12−3に分岐し、ス
テップ12−3において第13図に詳述するように仮名
漢字変換の変換処理が行なわれる。次候補キーであった
ときはステップ12−4において第18図に詳述する次
候補処理を行なう。選択キーであったときはステップl
2−5において第l9図に詳述する選択処理を行なう。
If it is a conversion key, the process branches to step 12-3, and in step 12-3, conversion processing for kana-kanji conversion is performed as detailed in FIG. 13. If it is the next candidate key, the next candidate process detailed in FIG. 18 is performed in step 12-4. If it is a selection key, step l
At step 2-5, the selection process detailed in FIG. 19 is performed.

その他のキーのときはステップ12−6に分岐し、挿入
、削除等の通常の文字処理装置において行なわれるその
他の処理が行なわれる。その後ステツブl2−1に分岐
する。
If it is any other key, the process branches to step 12-6, and other processing such as insertion, deletion, etc. performed in a normal character processing device is performed. After that, it branches to step 12-1.

第13図はステップ12−3の「変換処理」を詳細化し
たフローチャートである。
FIG. 13 is a detailed flowchart of the "conversion process" in step 12-3.

ステップ13−1において、第14図に詳述する文節候
補作成処理を行ない、文節候補テーブルBCTBLを作
成する。
In step 13-1, a phrase candidate creation process detailed in FIG. 14 is performed to create a phrase candidate table BCTBL.

ステップ13−2において、第15図に詳述する第1候
補決定処理を行なう。
In step 13-2, a first candidate determination process detailed in FIG. 15 is performed.

ステップ13−3において、決定された第↓候補に基づ
いて変換結果を作成し、出力する。
In step 13-3, a conversion result is created and output based on the determined ↓-th candidate.

第14図はステップl3−1の「文節候補作成処理」を
詳細化したフローチャートである。
FIG. 14 is a detailed flowchart of the "phrase candidate creation process" in step l3-1.

ステップ14−lにおいて、入カバツファインデックス
i、文節候補テーブルインデックスjをOに初期設定す
る。
In step 14-l, the input buffer index i and the phrase candidate table index j are initialized to O.

ステップ14−2においてiの示す人カバツファ中の読
みに基づき、辞書をサーチし、単語候補を求める。
In step 14-2, a dictionary is searched for word candidates based on the pronunciation in the human cover text indicated by i.

ステップ14−3において、見つかった単語候補に対し
て接続する付属語列を解析する形態素解析処理を行なう
。この結果、文節候補が得られる。
In step 14-3, morphological analysis processing is performed to analyze adjunct word strings connected to the found word candidates. As a result, phrase candidates are obtained.

ステップ14−4において得られた文節候補を文節候補
テーブルに格納する。格納する時はj千1番目のエント
リーに格納する。また、必要な情報を設定する。例えば
、この文節候補を子、あるいは弟とする文節候補につい
ては、子リンク、弟ノンクを設定する。格納?&jの値
をカウントアップする。
The clause candidates obtained in step 14-4 are stored in the clause candidate table. When storing, it is stored in the j-thousand-1st entry. Also, set the necessary information. For example, for a clause candidate that has this clause candidate as a child or younger brother, a child link and a younger brother nonku are set. Store? Count up the value of &j.

ステップ14−5において文節候補テーブルからターミ
ネートしていない文節候補、すなわち、子リンクがまだ
決まっていない文節候補を見つけその次の読み位置をi
に代入する。
In step 14-5, find an unterminated phrase candidate from the phrase candidate table, that is, a phrase candidate whose child link has not yet been determined, and determine the next reading position i.
Assign to .

ステップ14−6において、全ての文節候補の子リンク
が決定しているかどうか判定し、決定していないものが
あればステップ14−2に分岐する。そうでなければリ
ターンする。
In step 14-6, it is determined whether the child links of all clause candidates have been determined, and if there are any child links that have not been determined, the process branches to step 14-2. Otherwise, return.

第15図はステップl3−2の「第1候補決定処理」を
詳細化したフローチャートである。
FIG. 15 is a detailed flowchart of the "first candidate determination process" in step l3-2.

ステップ15−1において、最尤文尤度を処理上許され
る最小値、例えば、−32767に初期設定する。
In step 15-1, the maximum sentence likelihood is initialized to the minimum value allowed for processing, for example, -32767.

ステップ15−2において文節候補テーブルより文節候
補列を1つ取り出す。
In step 15-2, one phrase candidate string is extracted from the phrase candidate table.

ステップ15−3において、第l6図に詳述するように
その取り出された文節候補列に適用可能な用例を検索し
、用例尤度の和である「用例尤度和」を算出する。
In step 15-3, as detailed in FIG. 16, an example applicable to the extracted sentence candidate string is searched, and a "sum of example likelihoods" which is a sum of example likelihoods is calculated.

ステップ15−4において、文節候補列の文尤度を第1
1図に示す様に算出する。
In step 15-4, the sentence likelihood of the phrase candidate string is
Calculate as shown in Figure 1.

ステップl5−5において、算出された文尤度が最尤文
尤度より尤もらしいか、具体的には大きいかを判定し、
大きいときはステップ15−6において最尤文尤度を算
出された文尤度に更新する。また、ステップl5−7に
おいて現在の文節候補列を最尤文尤度に対応した文節候
補列として記憶する。
In step l5-5, it is determined whether the calculated sentence likelihood is more likely than the maximum likelihood sentence likelihood, specifically, whether it is larger;
If it is larger, the maximum likelihood sentence likelihood is updated to the calculated sentence likelihood in step 15-6. Further, in step l5-7, the current phrase candidate string is stored as a phrase candidate string corresponding to the maximum sentence likelihood.

ステップ15−8において文節候補テーブルから別の文
節候補列が取り出せるかどうかを判定し、取り出せると
きはステップ15−2に分岐する。そうでないときはリ
ターンする。
In step 15-8, it is determined whether another phrase candidate string can be extracted from the phrase candidate table, and if it can be extracted, the process branches to step 15-2. Otherwise, return.

これにより、最尤文尤度を算出するもとになった文節候
補列が第1候補として決定される。
As a result, the phrase candidate string that is the basis for calculating the maximum likelihood sentence likelihood is determined as the first candidate.

第16図はステップ15−3の「用例尤度和の算出」を
詳細化したフローチャートである。
FIG. 16 is a detailed flowchart of step 15-3, ``Calculation of example likelihood sum''.

ステップ16−1において、用例尤度和をまずOに初期
設定する。
In step 16-1, the example likelihood sum is first initialized to O.

ステップ16−2において、文節候補列から1文節を着
目文節として取り出す。以下の処理ではこの着目文節に
関係する用例の尤度を求めることになる。
In step 16-2, one clause is extracted from the clause candidate string as a clause of interest. In the following processing, the likelihood of examples related to this phrase of interest will be calculated.

ステップ16−3において最尤用例尤度をOに初期設定
する。
In step 16-3, the maximum likelihood example likelihood is initialized to O.

ステップl6−4において、着目文節とベアになる文節
を文節候補列から取り出す。
In step 16-4, phrases that are bare of the phrase of interest are extracted from the phrase candidate string.

ステップl6−5において、着目文節のベア文節を取り
出すことができなかったときは、それ以上の着目文節の
処理を諦め、ステップ16−8に分岐する。
In step 16-5, if the bare clause of the target clause cannot be extracted, processing of the target clause is given up and the process branches to step 16-8.

ステップ16−6において、第17図に詳述するように
、着目文節とペア文節の間の用例が適用されているかど
うかを調べ、その適用状況に応じて用例尤度を設定する
In step 16-6, as detailed in FIG. 17, it is checked whether the example between the target phrase and the paired phrase is applied, and the example likelihood is set depending on the application status.

ステップ16−7において、求まった用例尤度が最尤用
例尤度より尤もらしい(すなわち大きいか)かどうかを
調べ、尤もらしければ(すなわち大きければ)、用例尤
度の値を最尤用例尤度に代入する。その後ステップl6
−4に分岐し、別のベアについて用例尤度を求める。
In step 16-7, it is checked whether the obtained example likelihood is more likely (i.e., larger) than the maximum likelihood example likelihood, and if it is likely (i.e., larger), the value of the example likelihood Assign to . Then step l6
-4, and find the example likelihood for another bear.

ステップ16−8において、着目文節の処理が終ったの
で、次の着目文節の処理に移るが、未処理の文節が残っ
ているかどうか判定する。残っていないときはそのまま
リターンするが、残っているときはステップ16−9に
分岐し、前回求まった最尤用例尤度を用例尤度和に加算
する。その後、ステップ16−2に分岐し、次の着目文
節を取り出す。
In step 16-8, since the processing of the target phrase is completed, processing moves on to the next target phrase, and it is determined whether there are any unprocessed phrases remaining. If there are no remaining examples, the process returns as is, but if there are any, the process branches to step 16-9, and the previously determined maximum likelihood example likelihood is added to the sum of example likelihoods. Thereafter, the process branches to step 16-2, and the next phrase of interest is extracted.

第17図はステップ16−6の「用例尤度の値設定」を
詳細化したフローチャートである。
FIG. 17 is a detailed flowchart of step 16-6, ``setting example likelihood value.''

ステップ17−1において、着目文節とペア文節の2文
節間に適用される用例があるかどうか、あるとすれば個
別用例か意味用例か、を判断する。
In step 17-1, it is determined whether there is an example that applies between the two phrases of interest and a pair of phrases, and if so, whether it is an individual example or a semantic example.

適用用例がないときはステップl7−2に分岐し、用例
尤度にOを代入し、リターンする。
If there is no applied example, the process branches to step 17-2, O is substituted for the example likelihood, and the process returns.

個別用例が適用されるときはステップ■7−3分岐し、
用例尤度としてその用例の優先度に4を乗じたものを代
入する。その後ステップl7−5に分岐する。
When the individual example is applied, branch to step ■7-3,
The priority of the example multiplied by 4 is assigned as the example likelihood. After that, the process branches to step 17-5.

意味用例が適用されるときは、ステップ17−4に分岐
し、用例尤度としてその用例の優先度に4を乗じ、更に
意味分類の優先度を乗じて5で除したものを代入する。
When a semantic example is applied, the process branches to step 17-4, and the value obtained by multiplying the priority of the example by 4, further multiplied by the priority of the semantic classification, and dividing by 5 is substituted as the example likelihood.

その後ステップ17−5に分岐する。Thereafter, the process branches to step 17-5.

ステップ17−5において2文節間の距離、すなわち、
飛び越す文節の数を求め、その値に2を乗じて用例尤度
から減算する。もし、隣接する2文節であれば、飛び越
す文節はOであるので、用例尤度からOを減じることに
なる。
In step 17-5, the distance between two clauses, that is,
Find the number of phrases to skip, multiply that value by 2, and subtract it from the example likelihood. If the two clauses are adjacent, the clause to be skipped is O, so O is subtracted from the example likelihood.

ステップ17−6において上記計算された用例尤度の値
が負になっていないかどうか判定し、負のときはステッ
プ17−7においてOになるように補正し、リターンす
る。負でないときは値をいじらずにそのままリターンす
る。
In step 17-6, it is determined whether or not the calculated example likelihood value is negative, and if it is negative, it is corrected to be O in step 17-7, and the process returns. If it is not negative, return without changing the value.

第18図はステップ12−4の「次候補処理」を詳細化
したフローチャートである。
FIG. 18 is a detailed flowchart of the "next candidate processing" in step 12-4.

ステップl8−1において、次候補を見るべき同音語の
同音語番号をテキストバツファTBUFより求める。
In step 18-1, the homophone number of the homophone to be viewed as the next candidate is determined from the text buffer TBUF.

ステップl8−2において、同音語番号から同音語バッ
ファの位置を求めて、現候補番号をカウントアップする
In step 18-2, the position of the homophone buffer is determined from the homophone number, and the current candidate number is counted up.

ステップ18−3において、候補一覧を表示する。In step 18-3, a list of candidates is displayed.

第19図はステップ12−5の「選択処理」を詳細化し
たフローチャートである。
FIG. 19 is a detailed flowchart of the "selection process" in step 12-5.

ステップ19−1において、選択すべき同音語の同音語
番号をテキストバッファTBUFより求める。
In step 19-1, the homophone number of the homophone to be selected is obtained from the text buffer TBUF.

ステップ19−2において、同音語番号から同音語バッ
ファの位置を求めて、現候補番号の示す候補情報から表
記を取り出し、テキストバッファTBUFに確定文字と
して設定する。
In step 19-2, the position of the homophone buffer is determined from the homophone number, the notation is extracted from the candidate information indicated by the current candidate number, and is set as a confirmed character in the text buffer TBUF.

ステップ19−3において、同様に、現候補番号の示す
候補情報から単語アドレス、適用意味分類を求め、その
示された単語の意味分類の優先度をカウントアップする
In step 19-3, the word address and applied semantic classification are similarly determined from the candidate information indicated by the current candidate number, and the priority of the semantic classification of the indicated word is counted up.

ステップ19−4において、同様に、第1候補の示す候
補情報から単語アドレス、適用意味分類を求め、その示
された単語の意味分類の優先度をカウントダウンする。
In step 19-4, the word address and applied semantic classification are similarly determined from the candidate information indicated by the first candidate, and the priority of the semantic classification of the indicated word is counted down.

[他の実施例コ 以上の説明において、用例辞書は共起する2単語(ある
いは分類)のペアであるとして説明したが、3つ組ある
いは更に一般的にn個組であっても同様に処理すること
ができる。
[Other Examples In the above explanation, the example dictionary has been explained as a pair of two co-occurring words (or categories), but it can be processed in the same way even if it is a set of three or more generally a set of n words. can do.

また、尤度の計算は単に例を示しただけであり、用例に
付与された優先度を尤度計算の過程で考慮する様に構成
すれば、別の計算方法であっても特に本発明の趣旨を損
なうものではない。
Furthermore, the calculation of the likelihood is merely an example, and if the priority given to the example is taken into consideration in the process of likelihood calculation, even if another calculation method is used, the present invention is particularly effective. This does not detract from the purpose.

また、意味分類の学習の仕組みは各単語に記述された意
味分類の優先度を直接操作するように構成している。し
かし、この方式以外に、単語の各意味分類に対応した学
習ビットを持ち、学習ビットを操作するように処理して
も、特に本発明の趣旨を損なうものではない。
Furthermore, the semantic classification learning mechanism is configured to directly manipulate the priority of the semantic classification written in each word. However, in addition to this method, it is possible to have learning bits corresponding to each semantic classification of words and to manipulate the learning bits without detracting from the spirit of the present invention.

[発明の効果] 以上の説明から明らかなように本発明によれば、オペレ
ータの人力した読み列について複数の意味用例が適用可
能な場合、単語辞書中の各単語に記述されている意味分
類の優先度情報に基づいてどの意味用例を適用すれば良
いかを判断するので、より適切な変換を行なうことがで
きる。
[Effects of the Invention] As is clear from the above description, according to the present invention, when a plurality of semantic usage examples can be applied to the pronunciation string manually created by the operator, the semantic classification described for each word in the word dictionary is Since it is determined which semantic example to apply based on the priority information, more appropriate conversion can be performed.

また、意味分類の優先度情報を学習により変更すること
ができるので、単語を特殊な意味に使用するオペレータ
にとっても、自分の好みの変換に改良することができる
Furthermore, since the priority information for semantic classification can be changed through learning, even operators who use words with special meanings can improve the conversion to their own preference.

これにより変換率の高い、快適な文字処理装置を実現す
ることができる。
This makes it possible to realize a comfortable character processing device with a high conversion rate.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の全体構成のブロック図、第2図は本発
明における仮名渓字変換の変換例を示した図、 第3図は本発明における用例の優先度の学習効果を示し
た図、 第4図は本発明における入カバッファIBUFと出力バ
ッファOBUFの構成を示した図、第5図は本発明にお
ける仮名漢字変換用辞書DICの構成を示した図、 第6図は本発明における用例辞書YDICの構成を示し
た図、 第7図は本発明における文節候補テーブルBCTBLの
記憶内容を概念的に示した図、第8図は本発明における
文節候補テーブルBCTBLの構成を示した図、 第9図は本発明におけるテキストバッファTBUFの構
成を示した図、 第10図は本発明における同音語バッファDOBUFの
構成を示した図、 第11図は本発明における尤度計算の方式を示した図、 第12図〜第19図は本発明文字処理装置の動作を示す
フローチャート。 DISK   ・・・外部記憶部 CPU   ・・・マイクロプロセッサROM    
・・・読出し専用メモリRAM    ・・・ランダム
アクセスメモリI BUF   ・・・大カバッファ OBUF   ・・・出力バッファ DIC    ・・・仮名漢字変換用辞書YDIC  
 ・・・用例辞書 BCTBL  ・・・文節候補テーブルTBUF   
・・・テキストバッファDOBUF  ・・・同音語バ
ッファ しんぶんやにいった〃→ 新聞屋に言った 新聞屋に行った 第 4 図 入カバノファの横践 出力パノファの構成 トナ 2バイト ト1 2パイト 区 0つ 派 第 5 図 第 6 図 入力 「しんぶんやにいった」 行った 自立語 第 8 図 付9瞑二pリ 弟リンク 子リンク 0 通常文字 1 同音語 弔 10 図 同音語番号 O l 2 弔 11 図 (文尤度)一Σ(文節光度)↓Σ(文節間t度)本Σ(
用例尤度)(文節尤度)=R:i語尤度 (文節間尤度)一 20 (fll1) 1新関屋に/行った」の文尤度の計算 「新lIllmに」の文節尤度一「新1!l屋」の単語
尤度−2「行ったコの文節尤度一「行くjの単語尤度−
5文節間尤度の和−一(2−1)x20=−20「新!
ill屋に/行<.′の用例主度−2x4x3;5一〇
=4従って 文尤度−2+5−20+4.8ヨー82(例2) 「新聞屋に/行った」の文尤度の計算 「新聞屋に」の文節尤度一「新聞屋.;の単語尤度−2
「言った3の文節尤度一「言う」の単語尤度=5文節間
尤度の和一−(2−1)×20− 20「新IIIl屋
に/g うJ の”A例尤1jy=2x4x4+5−0
−6にって 文尤1t:=2+5−20=6.  4=−6.  6
第 12 図 弔 13 図 弔 14 図 第 17 図 ○亡B
Figure 1 is a block diagram of the overall configuration of the present invention, Figure 2 is a diagram showing an example of kana-keiji conversion in the present invention, and Figure 3 is a diagram showing the learning effect of priority of usage in the present invention. , FIG. 4 is a diagram showing the configuration of the input buffer IBUF and output buffer OBUF in the present invention, FIG. 5 is a diagram showing the configuration of the kana-kanji conversion dictionary DIC in the present invention, and FIG. 6 is an example of use in the present invention. FIG. 7 is a diagram conceptually showing the storage contents of the clause candidate table BCTBL in the present invention; FIG. 8 is a diagram showing the structure of the clause candidate table BCTBL in the present invention; Figure 9 is a diagram showing the configuration of the text buffer TBUF in the present invention, Figure 10 is a diagram showing the configuration of the homophone buffer DOBUF in the present invention, and Figure 11 is a diagram showing the likelihood calculation method in the present invention. , FIGS. 12 to 19 are flowcharts showing the operation of the character processing apparatus of the present invention. DISK...External storage CPU...Microprocessor ROM
...Read-only memory RAM ...Random access memory I BUF ...Large buffer OBUF ...Output buffer DIC ...Kana-kanji conversion dictionary YDIC
...Example dictionary BCTBL ...Bunsetsu candidate table TBUF
・・・Text buffer DOBUF ・・・Homophone buffer I went to Shinbunya〃→ I went to the newspaper shop 4 Illustrated Kabanofa's horizontal output Panofa's composition 2 bytes 1 2 bytes 0 Part 5 Figure 6 Figure input ``I went to Shinbunya'' Independent words that went 8 Figure attached 9 Meditation 2 brother link Child link 0 Ordinary character 1 Homophone 10 Figure Homophone number O l 2 Funeral 11 Figure (sentence likelihood) 1 Σ (bunsetsu luminosity) ↓Σ (t degree between clauses) book Σ (
Example likelihood) (clause likelihood) = R: i-word likelihood (inter-clause likelihood) - 20 (fll1) 1Calculation of the sentence likelihood of ``to/went to Shinsekiya'' Clause likelihood of ``to new Illm'' 1. Word likelihood of “New 1! l-ya” - 2. Clause likelihood of “Go ko” 1. Word likelihood of “Go j” -
Sum of likelihoods between 5 clauses - 1 (2 - 1) x 20 = -20 "New!
Ill shop / line <. Example of usage of ``Dominance -2x4x3;510=4 Therefore, sentence likelihood -2 + 5 - 20 + 4.8yo82 (Example 2) Calculating the sentence likelihood of ``I went to the newspaper store'' Clause ``To the newspaper store'' Likelihood 1 “Newspaper shop.; word likelihood -2
``Bunsetsu likelihood of ``3'' 1 Word likelihood of ``say'' = 5 Sum of inter-clause likelihoods - (2-1) x 20 - 20 ``New III shop/g UJ's''A example 1jy =2x4x4+5-0
1t for -6 = 2 + 5 - 20 = 6. 4=-6. 6
Figure 12 Funeral 13 Figure 14 Figure 17 Figure ○ Death B

Claims (1)

【特許請求の範囲】 1、読み列を入力する入力手段と、 読み、表記、意味分類を対応づけて記憶した辞書と、 複数の単語または意味分類間の共起関係を記述した用例
辞書と、 前記辞書及び用例辞書に基づき入力読み列を表記に変換
する変換手段とを具備し、前記辞書の意味分類には各単
語ごとに優先度情報が記述されており、前記変換手段は
、意味用例を適用する際、優先度の高い意味分類を使用
した用例を優先的に適用して第1候補を決定することを
特徴とする文字処理装置。 2、読み列を入力する入力手段と、 読み、表記、意味分類を対応づけて記憶した辞書と、 複数の単語または意味分類間の共起関係を記述した用例
辞書と、 前記辞書及び用例辞書に基づき入力読み列を表記に変換
する変換手段と、 変換結果の第1候補が望む表記でなかったときに次の候
補の表示を行なう次候補手段と、表示された候補が自分
の望む表記であるときに候補を選択確定する選択手段と
を具備し、前記辞書の意味分類には各単語ごとに優先度
情報が記述されており、前記変換手段は、意味用例を適
用する際、優先度の高い意味分類を使用した用例を優先
的に適用して第1候補を決定し、選択手段により次候補
以下の候補が選択された場合、単語の意味分類の優先度
を変更することを特徴とする文字処理装置。
[Claims] 1. An input means for inputting a pronunciation sequence; a dictionary storing pronunciations, notations, and semantic categories in correspondence; and an example dictionary describing co-occurrence relationships between a plurality of words or semantic categories; a converting means for converting the input pronunciation sequence into notation based on the dictionary and the example dictionary, priority information is described for each word in the semantic classification of the dictionary, and the converting means converts the semantic example into a notation. A character processing device characterized in that, when applied, a first candidate is determined by preferentially applying an example using a meaning classification with a high priority. 2. An input means for inputting a pronunciation sequence; a dictionary that stores pronunciations, notations, and semantic categories in correspondence; an example dictionary that describes co-occurrence relationships between a plurality of words or semantic categories; a conversion means for converting an input pronunciation sequence into a notation based on the notation; a next candidate means for displaying the next candidate when the first candidate of the conversion result is not the notation desired; and a next candidate means that displays the next candidate if the displayed candidate is the notation desired by the user. When applying the semantic examples, the conversion means selects and finalizes the candidates, and priority information is described for each word in the meaning classification of the dictionary, and when applying the semantic example, the conversion means selects and confirms the candidates. A character characterized in that the first candidate is determined by preferentially applying examples using semantic classification, and when the selection means selects a candidate below the next candidate, the priority of the semantic classification of the word is changed. Processing equipment.
JP1309997A 1989-11-28 1989-11-28 Character processor Expired - Fee Related JP2698458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1309997A JP2698458B2 (en) 1989-11-28 1989-11-28 Character processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1309997A JP2698458B2 (en) 1989-11-28 1989-11-28 Character processor

Publications (2)

Publication Number Publication Date
JPH03167657A true JPH03167657A (en) 1991-07-19
JP2698458B2 JP2698458B2 (en) 1998-01-19

Family

ID=17999900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1309997A Expired - Fee Related JP2698458B2 (en) 1989-11-28 1989-11-28 Character processor

Country Status (1)

Country Link
JP (1) JP2698458B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6140672A (en) * 1984-07-31 1986-02-26 Hitachi Ltd Processing system for dissolution of many parts of speech
JPH01228058A (en) * 1988-03-08 1989-09-12 Ricoh Co Ltd Kana/kanji converter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6140672A (en) * 1984-07-31 1986-02-26 Hitachi Ltd Processing system for dissolution of many parts of speech
JPH01228058A (en) * 1988-03-08 1989-09-12 Ricoh Co Ltd Kana/kanji converter

Also Published As

Publication number Publication date
JP2698458B2 (en) 1998-01-19

Similar Documents

Publication Publication Date Title
US5495413A (en) Translation machine having a function of deriving two or more syntaxes from one original sentence and giving precedence to a selected one of the syntaxes
JPS59144978A (en) Portable translation equipment
JPH03167657A (en) Character processor
JPH03168864A (en) Character processor
JP3236190B2 (en) Character processing apparatus and method
JP3285149B2 (en) Foreign language electronic dictionary search method and apparatus
JPH0140372B2 (en)
JPS59103136A (en) Kana (japanese syllabary)/kanji (chinese character) processor
JPH01229369A (en) Character processor
JPH03179551A (en) Character processor
JP2675912B2 (en) Character processor
JPH03179552A (en) Character processor
JPH03116359A (en) Character processing device
JP3408830B2 (en) Japanese sentence parser
JP2899087B2 (en) Character processor
JPH03116360A (en) Character processing device
JPS59186030A (en) Kana-kanji conversion processing device
JP3873299B2 (en) Kana-kanji conversion device and kana-kanji conversion method
JP2714239B2 (en) Character processor
JP3253311B2 (en) Language processing apparatus and language processing method
JPH04111042A (en) Character processor
JPH03116361A (en) Character processing device
JPH02289040A (en) Document processor
JPH03191472A (en) Sentence analyzer and machine translation device using the same
JPH01214966A (en) Word processor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees