JPH07271774A - Document input device - Google Patents

Document input device

Info

Publication number
JPH07271774A
JPH07271774A JP6153494A JP6153494A JPH07271774A JP H07271774 A JPH07271774 A JP H07271774A JP 6153494 A JP6153494 A JP 6153494A JP 6153494 A JP6153494 A JP 6153494A JP H07271774 A JPH07271774 A JP H07271774A
Authority
JP
Japan
Prior art keywords
word
sentence
input
words
meaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6153494A
Other languages
Japanese (ja)
Inventor
Toru Ueda
徹 上田
Natsuki Yuasa
夏樹 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP6153494A priority Critical patent/JPH07271774A/en
Publication of JPH07271774A publication Critical patent/JPH07271774A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the document input device which has a function for lightening the burden of input by predicting and displaying a word appearing next by using information on the meaning that a word that is already inputted has. CONSTITUTION:This document input device includes an input means 1 for inputting a document, a document buffer 2 which stores the inputted document, a meaning vector generating means 3 which generates meaning vectors of the document from the document stored in the document buffer 2, a word predicting means 4 which predicts following words from the meaning vectors of the document, a meaning dictionary 5 which is used to predict the words, a predicted word display means 6 which displays the predicted word, and a word selecting means 7 which selects one word out of the predicted words. Then the word predicting means 4 is equipped with a function which compares the similarity between the meaning vectors of the document and the meaning vectors of the words described in the meaning dictionary and selects the next word. Further, the word predicting means 4 has a function for narrowing down the predicted words by using information on the character which is inputted after predicting the words.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パソコン/電子手帳/
ワープロなどの文章入力装置に関する。
The present invention relates to a personal computer / electronic notebook /
The present invention relates to a text input device such as a word processor.

【0002】[0002]

【従来の技術】従来、ユーザが過去に入力したデータを
活用して入力負荷を軽減する機能(学習機能)として
は、かな漢字変換時に既に文章中で入力された単語を、
変換候補の上位にするという方法がある。また、既に入
力された単語は、最初の1文字を入力し変換キーを押す
と、候補に現れるという方式も実用化されている。
2. Description of the Related Art Conventionally, as a function (learning function) for reducing the input load by utilizing data that a user has input in the past, words already input in a sentence at the time of Kana-Kanji conversion are
There is a method of placing it higher in the conversion candidates. In addition, a method has been put into practical use in which a word that has already been input appears as a candidate when the first character is input and the conversion key is pressed.

【0003】また、統計的な情報を用いる技術も知られ
ている(「かな・漢字の文字連鎖情報を利用した統計的
言語モデル」、山田智一ほか3名、日本音響学会講演論
文集(平成3年3月)、95−96頁参照)が、ここで
使用しているのは文字単位の情報であり単語としての扱
いではない。
A technique using statistical information is also known (“Statistical language model using kana / kanji character chain information”, Tomokazu Yamada and 3 others, Proceedings of the Acoustical Society of Japan (1993). March 1993), pp. 95-96), but the information used here is information in character units, not as words.

【0004】[0004]

【発明が解決しようとする課題】ワープロなどで文章を
入力する場合、一字一句正しい仮名を入力する必要があ
る。この負荷を軽減する方式として、上記のようなかな
漢字変換時に既に文章中で入力された単語を変換候補の
上位にするという方法や、既に入力された単語は、最初
の1文字を入力し変換キーを押すと、候補に表示すると
いう方式では、既に同じ単語が入力されていることが最
低の条件である。しかし、全く同じ単語が複数回出現す
る確率は低い。
When inputting a sentence in a word processor or the like, it is necessary to input a correct kana in each character. As a method of reducing this load, a method of setting a word already input in the sentence at the time of Kana-Kanji conversion as a higher rank as a conversion candidate, or a word already input by inputting the first character and then the conversion key In the method of pressing and displaying as a candidate, the minimum condition is that the same word has already been input. However, the probability that the exact same word appears multiple times is low.

【0005】一方、文書には内容によって、意味的につ
ながりが深く、極めて出現しやすいパターンがある。た
とえば、「拝啓、貴社 ますます」と入力されていれ
ば、次にくる単語は「ご清栄の」とか「ご清祥の」とか
いったものであることが多い。また、「長期研究計画」
という言葉があれば、「立案/推進/見直し/提出」な
どの言葉が比較的よく出現すると考えられる。
On the other hand, some documents have patterns that are deeply connected and extremely easy to appear depending on the content. For example, if you have typed "Dear Sir, Masumasu Masumasu", the next word will often be "Goseiei no" or "Goseisho no". Also, "long-term research plan"
The word "planning / promotion / reviewing / submitting" is likely to appear relatively frequently.

【0006】そこで、既に入力された言葉の持つ意味的
な情報を用いて、次に出現する単語を予測/表示するこ
とで、入力の負荷を軽減することが期待できる。
Therefore, it is expected that the input load can be reduced by predicting / displaying the word that appears next using the semantic information of the words that have already been input.

【0007】本発明の目的は、既に入力された言葉の持
つ意味的な情報を用いて、次に出現する単語を予測/表
示し、入力の付加を軽減する機能を持った文章入力装置
を提供することにある。
An object of the present invention is to provide a text input device having a function of predicting / displaying a word that appears next by using the semantic information of a word that has already been input and reducing the addition of input. To do.

【0008】[0008]

【課題を解決するための手段】本発明の文章入力装置
は、文章を入力する入力手段と、入力された文章を格納
する文章バッファと、文章バッファに蓄えられた文章か
ら文章の意味ベクトルを作成する意味ベクトル作成手段
と、文章の意味ベクトルから次の単語を予測する単語予
測手段と、単語を予測するために記憶する意味辞書と、
予測された単語を表示する予測単語表示手段と、予測さ
れた複数の単語から一つを選択する単語選択手段とを含
む。
The text input device of the present invention creates an input means for inputting a text, a text buffer for storing the input text, and a meaning vector of the text from the text stored in the text buffer. A meaning vector creating means, a word predicting means for predicting the next word from the meaning vector of the sentence, and a semantic dictionary stored for predicting the word,
The prediction word display means for displaying the predicted word and the word selection means for selecting one from the plurality of predicted words are included.

【0009】上記単語予測手段は、文章の意味ベクトル
と意味辞書に記述された単語の意味ベクトルとの類似度
を比較して次の単語を選別する機能を具備する。
The word predicting means has a function of comparing the meaning vector of a sentence and the meaning vector of a word described in the meaning dictionary to select the next word.

【0010】さらに、上記単語予測手段は、単語を予測
した後に入力された文字の情報を用いて予測単語を絞り
込む機能を具備する。
Further, the word predicting means has a function of narrowing down the predicted word using the information of the character input after predicting the word.

【0011】[0011]

【作用】ユーザが、ある程度文章を入力すると、その後
は、システムが単語を予測し、予測結果を表示する。ユ
ーザの入力したい単語が表示された予測単語の中に存在
すれば、ユーザは、キーやマウスなどの選択手法を用い
て単語を選択する。予測単語中になければ、通常のワー
プロと同様にキーで入力を行う。予測単語にある場合に
は、単語を選択するだけで入力されるため、入力の負荷
が低減される。また、予測を行うことで、意味的につな
がりのある単語が表示されるので、ユーザが文章を作成
するときの補助にもなる。
When the user inputs a sentence to some extent, the system then predicts the word and displays the prediction result. If the word desired by the user exists in the displayed predicted words, the user selects the word by using a selection method such as a key or a mouse. If it is not in the predicted word, enter it with the key as in a normal word processor. If it is in the predicted word, it is input only by selecting the word, so the input load is reduced. In addition, by performing prediction, words that are semantically connected are displayed, which helps the user in creating a sentence.

【0012】[0012]

【実施例】以下に本発明の文章入力装置について説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The text input device of the present invention will be described below.

【0013】図1に、本発明の文章入力装置の実施例の
ブロック図を示す。
FIG. 1 shows a block diagram of an embodiment of a text input device of the present invention.

【0014】図1において、1は、単語もしくは文章の
入力部である。例えばキーボードやペン、タブレット
と、文字認識装置、音声認識装置などに相当する。2
は、入力された文章を格納する文章バッファである。通
常、このバッファの内容の一部が表示装置に表示される
がここでは省略されている。3は、文章バッファの内容
から入力された文章の意味特徴を作成する意味ベクトル
作成部である。ここで作成される文章の意味ベクトル
は、一つである必要はなく、複数の意味特徴が作成され
る可能性もある。4は、3で作成された文章の意味ベク
トルを用いて、その文章の意味ベクトルと関係の深い単
語(もしくは単語列、文節、文章など)を予測する単語
予測部である。単語予測部は、文章の意味ベクトルと後
述の意味辞書に記述された単語の意味ベクトルとの類似
度を比較して次の単語を選別する機能を具備している。
5は、3と4のブロックで使用される意味辞書である。
6は、4で予測された単語を表示する予測単語表示部で
ある。7は表示された単語から、ユーザが単語を選択す
る単語選択部である。ユーザが入力したい単語がこの表
示にない場合には、この選択は行われずに、通常のよう
に(キーボードなどから)単語が入力される。また、こ
の選択部で選択された語は、1の入力部から入力された
ものと同様に文章バッファに格納され、文章の一部とな
る。
In FIG. 1, reference numeral 1 is an input section for words or sentences. For example, it corresponds to a keyboard, a pen, a tablet, a character recognition device, a voice recognition device, and the like. Two
Is a sentence buffer that stores the input sentence. Normally, a part of the contents of this buffer is displayed on the display device, but it is omitted here. Reference numeral 3 is a semantic vector creation unit that creates the semantic features of the input sentence from the contents of the sentence buffer. The meaning vector of the sentence created here does not have to be one, and a plurality of semantic features may be created. Reference numeral 4 is a word prediction unit that uses the meaning vector of the sentence created in 3 to predict words (or word strings, clauses, sentences, etc.) that are closely related to the meaning vector of the sentence. The word prediction unit has a function of selecting the next word by comparing the degree of similarity between the meaning vector of the sentence and the meaning vector of the word described in the later-described meaning dictionary.
Reference numeral 5 is a semantic dictionary used in blocks 3 and 4.
Reference numeral 6 is a predicted word display unit that displays the word predicted in 4. Reference numeral 7 is a word selection unit for the user to select a word from the displayed words. If the word the user wants to input is not in this display, this selection is not made, and the word is input as usual (from the keyboard or the like). Further, the word selected by this selection unit is stored in the sentence buffer in the same manner as that input from one input unit and becomes a part of the sentence.

【0015】次に「長期研究計画の」という文章が入力
されている場合の単語予測を例にあげて説明する。
Next, an example of word prediction in the case where a sentence of "long-term research plan" is input will be described.

【0016】まず、図2に示した意味辞書の例を説明す
る。ここでは、代表として9個の単語を示している。こ
こでの辞書は、それぞれの単語が横方向に6個の要素か
らなるベクトルで表現されている。意味辞書の作成は、
各要素に意味づけを行い、その要素との関係を人手で付
与しても作成可能であり、また、同一出願人による特許
出願(特願平5−181265号)に記載のように、大
量のデータから自動的に作成することも可能である。
First, an example of the semantic dictionary shown in FIG. 2 will be described. Here, nine words are shown as a representative. In the dictionary here, each word is represented by a vector consisting of six elements in the horizontal direction. Creating a semantic dictionary is
It can be created by giving meaning to each element and manually giving the relationship with the element, and as described in the patent application (Japanese Patent Application No. 5-181265) filed by the same applicant, It can also be created automatically from the data.

【0017】この例では既に「長期研究計画」という言
葉が入力されているので、この言葉を用いて文章の意味
ベクトルを作成する。
In this example, the word "long-term research plan" has already been input, so the meaning vector of the sentence is created using this word.

【0018】図3に「長期研究計画の」という文章が含
まれる場合の文章の意味ベクトルの計算例を示す。
FIG. 3 shows an example of the calculation of the meaning vector of the sentence when the sentence "Long-term research plan" is included.

【0019】図2の意味辞書から、「長期研究計画」と
いう言葉を構成する各単語のベクトルは、長期(8,
1,2,4,3,2)、研究(7,9,4,7,2,
1)、計画(2,5,7,3,1,1)であり、既に入
力されたこれらベクトルを平均化することで文章の意味
ベクトルが計算される(ただし、小数点以下は四捨五
入)。即ち、(8+7+2)÷3=5.6、(1+9+
5)÷3=5、(2+4+7)÷3=4.3、(4+7
+3)÷3=4.6、(3+2+1)÷3=2、(2+
1+1)÷3=1.3。この計算結果、これら3つのベ
クトルの平均(6,5,4,5,2,1)が文章の意味
ベクトルとなる。
From the semantic dictionary of FIG. 2, the vector of each word forming the word "long-term research plan" is long-term (8,
1, 2, 4, 3, 2), research (7, 9, 4, 7, 2,)
1), plan (2,5,7,3,1,1), and the semantic vector of the sentence is calculated by averaging these already input vectors (however, the decimal point is rounded off). That is, (8 + 7 + 2) /3=5.6, (1 + 9 +
5) ÷ 3 = 5, (2 + 4 + 7) ÷ 3 = 4.3, (4 + 7
+3) ÷ 3 = 4.6, (3 + 2 + 1) ÷ 3 = 2, (2+
1 + 1) /3=1.3. As a result of this calculation, the average (6, 5, 4, 5, 2, 1) of these three vectors becomes the meaning vector of the sentence.

【0020】ここでは、平均を取って文章の意味ベクト
ルとしたが、文章の意味ベクトルの作成方法は、荷重平
均など各種の方法が考えられる。また、文章全体の意味
ベクトルと、近傍(現在の入力に近い単語)だけを考慮
した文章の意味ベクトルを両方作成するなど、複数作成
することも考えられる。
Here, although the average is taken as the meaning vector of the sentence, various methods such as a weighted average can be considered as the method of creating the meaning vector of the sentence. It is also possible to create multiple meaning vectors, such as creating both the meaning vector of the entire sentence and the meaning vector of the sentence considering only the neighborhood (words close to the current input).

【0021】次に、作成された文章の意味ベクトルから
次の単語を予測する。予測に際しては、算出された文章
の意味ベクトルと、意味辞書に記述された各単語の意味
ベクトルとの類似度を算出して、類似度が大きい(距離
が小さい)ものから幾つか選択することで実現できる。
選択する単語の数は、類似度の大きいものから順に固定
した数にすることが考えられる。また、(対象とする単
語の類似度/最大の類似度)が、一定のしきい値以上の
ものを選ぶことも考えられる。なお、最大の類似度と
は、各単語の類似度のうち最大の値を指す。
Next, the next word is predicted from the created meaning vector of the sentence. At the time of prediction, by calculating the similarity between the calculated meaning vector of the sentence and the meaning vector of each word described in the meaning dictionary, some are selected from those with a large similarity (small distance). realizable.
It is conceivable that the number of words to be selected is a fixed number in descending order of similarity. Further, it is also possible to select one having a (similarity of target words / maximum similarity) of a certain threshold value or more. In addition, the maximum similarity refers to the maximum value among the similarities of each word.

【0022】文章の意味ベクトルと単語の意味ベクトル
との類似度は、ユークリッド距離(2乗誤差)を用いて
算出することができ、図4に示すように、文章の意味ベ
クトル(6,5,4,5,2,1)との距離が近いもの
の順に立案(距離:31),推進(同:31),見直し
(40),スイカ(74),理科(89),りす(10
7)となる(既に入力文章にある単語は省略した)。
The similarity between the meaning vector of a sentence and the meaning vector of a word can be calculated using the Euclidean distance (square error), and as shown in FIG. 4, the meaning vector of the sentence (6, 5, 4, 5, 2, 1) in order of decreasing distance (planning: distance: 31), propulsion (same: 31), review (40), watermelon (74), science (89), list (10)
7) (words already in the input sentence are omitted).

【0023】この中で類似度順に三つの単語を表示する
(ここでは、類似度の大きい順に三つ表示するように設
定されている)と、立案、推進、見直しの単語が候補と
して表示される。ユーザは、この3つの単語を入力した
ければ、それらの候補をキーやマウスを用いて選択す
る。これらの単語以外であれば、従来のようにかな漢字
変換や、文字認識などの手法を用いて入力を行う。
If three words are displayed in the order of similarity among them (here, three words are set to be displayed in descending order of similarity), words of planning, promotion, and review are displayed as candidates. . If the user wants to input these three words, the user selects those candidates by using the keys or the mouse. For words other than these words, input is performed using conventional kana-kanji conversion or character recognition.

【0024】図10に、本発明の文章入力装置の操作手
順のフローを示す。
FIG. 10 shows a flow of the operation procedure of the text input device of the present invention.

【0025】1では、文章の初まりかどうかをチェック
する。文章毎に話題が異なることを仮定しており、文章
の初めであれば、2では文章ベクトルを初期化する。こ
れは、文章の話題を示す意味ベクトルの要素をすべて0
にすることで実現できる。3では単語が入力されたかど
うかをチェックする。単語が入力され、確定されると、
4ではその単語の意味ベクトルを意味辞書から抽出す
る。5では、今の単語の意味ベクトルを、既に入力され
た単語の意味ベクトルに基づき求められ抽出した文章の
意味ベクトル(文章ベクトル)を用いて新たな文章ベク
トルを作成する。つまり、3の単語入力が確定すると、
4及び5で文章ベクトルが更新される。6では、単語予
測キーが入力されたかどうかをチェックする。予測キー
が入力された場合には、5で得られた文章ベクトルと、
意味辞書に格納されている単語の意味ベクトルとの類似
度を7で計算する。8では、7で得られた結果を大きい
順にソートする。9では、類似度の大きい順に幾つかを
予測単語として表示する。10では、表示された単語の
中からユーザが候補を選択したかどうかをチェックす
る。表示された候補が選ばれたなら、11でその単語を
入力文字として確定する。候補選択以外のキーが入力さ
れたなら、候補単語表示を消去し、次の入力待ちにな
る。
In step 1, it is checked whether it is the beginning of a sentence. It is assumed that the topic is different for each sentence, and at the beginning of the sentence, the sentence vector is initialized at 2. This means that all the elements of the meaning vector indicating the topic of the sentence are 0.
It can be realized by At 3, it is checked whether a word has been input. When a word is entered and confirmed,
At 4, the meaning vector of the word is extracted from the meaning dictionary. In step 5, a new sentence vector is created by using the meaning vector of the current word, using the meaning vector of the sentence (sentence vector) obtained and extracted based on the meaning vector of the already input word. In other words, when the input of 3 words is confirmed,
The sentence vector is updated at 4 and 5. At 6, it is checked whether the word prediction key has been input. When the prediction key is input, the sentence vector obtained in 5 and
The degree of similarity between the word and the meaning vector stored in the meaning dictionary is calculated as 7. In 8, the results obtained in 7 are sorted in descending order. In 9, some are displayed as predicted words in descending order of similarity. At 10, it is checked whether the user has selected a candidate from the displayed words. When the displayed candidate is selected, the word is confirmed as an input character at 11. If a key other than the candidate selection is entered, the candidate word display is erased and the next entry is awaited.

【0026】以上の単語予測の例では、入力された文章
の意味ベクトルと近い意味ベクトルを持つ単語を表示す
る手法を示した。しかし、通常の文章入力では、1万語
以上の単語が使用される。予測の精度が十分高ければ問
題がないが、予測精度が高くない場合には、従来の予測
しない手法の場合の負荷とあまり変わらなくなる。
In the above word prediction example, a method of displaying a word having a meaning vector close to the meaning vector of the input sentence is shown. However, in ordinary text input, more than 10,000 words are used. If the accuracy of the prediction is sufficiently high, there is no problem, but if the accuracy of the prediction is not high, the load is not so different from the load of the conventional non-prediction method.

【0027】次に、この点を改善するための手法を説明
する。先の例では、「長期研究計画の」という文章が確
定した場合には、3つの単語が予測され表示される。こ
の改善手法では、次の1文字が入力された場合に、その
1文字を用いて予測候補の限定を行う。つまり、なにも
入力のない状態では先の3つの単語(立案/推進/見直
し)が予測結果として表示されているが、次の1文字に
「り」が入力されたとすると、その文字で始まるものの
単語に限定される。図2の例では、距離が小さく、かつ
「り」で始まる単語は、「立案」しかないので、「立
案」だけが候補表示として残る。1文字単位ではなく
て、ローマ字入力であれば、立案の「r」が入力された
段階であっても、もしくは、「りつ」というように2文
字以上が入力された段階でもそれぞれの情報を用いて制
限をかけることが可能である。
Next, a method for improving this point will be described. In the above example, when the sentence “of the long-term research plan” is confirmed, three words are predicted and displayed. In this improvement method, when the next one character is input, the prediction candidate is limited using that one character. In other words, the previous 3 words (planning / promotion / review) are displayed as the prediction result when there is no input, but if "ri" is input to the next character, it will start with that character. Limited to words of things. In the example of FIG. 2, since the distance is small and the word starting with “ri” is only “planning”, only “planning” remains as a candidate display. If it is not a character-by-character unit, but Roman characters are input, each information is used even when "r" in the planning is input or when two or more characters such as "Ritsu" are input. It is possible to limit it.

【0028】もし、限定のない段階で、距離の小さい単
語が非常に多く存在しても、次の入力を用いて候補を限
定することで、最小限の入力を行い、その後は予測結果
の単語を用いることが可能となり、入力の負荷が低減さ
れる。
Even if there are a large number of words with a small distance at the stage of no limitation, the candidates are limited by using the next input to perform the minimum input, and then the word of the prediction result is obtained. Can be used, and the input load is reduced.

【0029】この場合の実施例のブロック図を図5に示
す。
A block diagram of the embodiment in this case is shown in FIG.

【0030】図5において、入力部1、文章バッファ
2、意味ベクトル作成部3、単語予測部4、意味辞書
5、予測単語表示部6、及び言語選択部7のそれぞれ
は、図1に示したブロック図におけると同じ機能を持っ
ているが、単語予測部4は、それ以外に、単語を予測し
た後に入力された文字の情報を用いて予測単語を絞り込
む機能を具備している。したがって、意味ベクトル作成
部3で作成された文章の意味ベクトルを用いて、その文
章の意味ベクトルと関係の深い単語を単語予測部4で予
測した後に、この予測単語を絞り込むために、次の文字
を入力することを示している。
In FIG. 5, each of the input unit 1, the sentence buffer 2, the meaning vector creation unit 3, the word prediction unit 4, the meaning dictionary 5, the predicted word display unit 6, and the language selection unit 7 is shown in FIG. Although it has the same function as in the block diagram, the word prediction unit 4 has a function of narrowing down the predicted word by using the information of the character input after predicting the word in addition to the above. Therefore, after using the meaning vector of the sentence created by the meaning vector creating unit 3 to predict words having a close relationship with the meaning vector of the sentence by the word predicting unit 4, in order to narrow down this predicted word, the next character Indicates that you must enter.

【0031】図6に、意味辞書を作成する手段のブロッ
ク図を示す。
FIG. 6 shows a block diagram of means for creating a semantic dictionary.

【0032】図6において、1は、予め入力された文書
を記憶する文章記憶部、2は、文章記憶部1に記憶され
た文書の形態素解析を行う文解析部、3は、文解析部2
の形態素解析を行うために使用される文解析辞書、4
は、文解析部2で解析された結果の自立語を記憶する自
立語記憶部、5は、自立語記憶部4に記憶された自立語
列と、後述する共起登録用辞書を用いて共起関係表を作
成する共起関係作成部、6は、共起辞書を作成するとき
にどの自立語を用いるかを記述している共起登録用辞
書、7は、共起関係作成部で作成された共起関係表(共
起辞書)を格納する共起辞書記憶部である。詳細は同一
出願人による特許出願(特願平5−181265号)に
記載されている。
In FIG. 6, 1 is a sentence storage unit that stores a document input in advance, 2 is a sentence analysis unit that performs morphological analysis of the document stored in the sentence storage unit 1, and 3 is a sentence analysis unit 2.
Sentence analysis dictionary used to perform morphological analysis of 4
Is an independent word storage unit that stores an independent word as a result of analysis by the sentence analysis unit 2, and 5 is an independent word sequence stored in the independent word storage unit 4 and a shared co-occurrence registration dictionary that will be described later. A co-occurrence relation creating unit that creates a co-occurrence relation table, 6 is a co-occurrence registration dictionary that describes which independent word is used when creating a co-occurrence dictionary, and 7 is a co-occurrence relation creating unit. It is a co-occurrence dictionary storage unit for storing the created co-occurrence relation table (co-occurrence dictionary). Details are described in a patent application (Japanese Patent Application No. 5-181265) filed by the same applicant.

【0033】図7に、意味辞書の作成を説明する概念図
を示す。
FIG. 7 shows a conceptual diagram for explaining the creation of the semantic dictionary.

【0034】いま、入力された文章が、「業界の再編成
の目標は合併によって経営基盤を拡充し、過剰な設備を
削減することだ。」(図7a)とする。入力された文章
は文解析部2で解析され、自立語「業界、編成、目標、
合併、経営、基盤、拡充、過剰、設備、削減」(図7
b)が抽出される。抽出された自立語は自立語記憶部4
に記憶される。一文が入力し終わると、自立語記憶部4
に記憶された自立語によって共起関係が作成される。図
7の入力例文では、その下に記載された抽出自立語が得
られる。この抽出自立語から共起関係表(=意味辞書)
を作成する(図7c)。この場合、抽出自立語から重複
を許して二つの自立語を取り出し、その二つの自立語A
と自立語Bとする。共起関係表には、A−Bの組み合わ
せに相当する升目に1を加える。つまり、同じ文章に現
れた言葉の組み合わせは、なんらかの関係を持つことと
仮定している。
Now, let us say that the inputted text is "The goal of the reorganization of the industry is to expand the management base by merger and reduce excessive facilities" (Fig. 7a). The input sentence is analyzed by the sentence analysis unit 2 and the independent word “industry, organization, goal,
Merger, management, foundation, expansion, excess, equipment, reduction "(Fig. 7
b) is extracted. The extracted independent word is the independent word storage unit 4
Memorized in. After inputting a sentence, the independent word storage unit 4
A co-occurrence relation is created by the independent words stored in. In the input example sentence of FIG. 7, the extracted independent word described below is obtained. From this extracted independent word, co-occurrence relation table (= semantic dictionary)
(FIG. 7c). In this case, two independent words are extracted from the extracted independent words, and the two independent words A are extracted.
And the independent word B. In the co-occurrence relation table, 1 is added to the square corresponding to the combination of AB. In other words, we assume that combinations of words that appear in the same sentence have some relationship.

【0035】例えば、「業界」と「編成」が選択された
ならば、共起関係の横軸(行方向)が「業界」で、縦軸
(列方向)が「編成」である升目に1を加える(図7c
において1が記載されている)。抽出された自立語の中
から全ての二つの自立語の組を抽出して、該当する共起
関係表の要素に1を加えることで共起関係表が作成され
る。このようにして、意味辞書が作成される。
For example, if "industry" and "composition" are selected, the horizontal axis (row direction) of the co-occurrence relationship is "industry" and the vertical axis (column direction) is "composition". (Figure 7c
1 is listed in). A co-occurrence relationship table is created by extracting all two independent word pairs from the extracted independent words and adding 1 to the corresponding co-occurrence relationship table element. In this way, the semantic dictionary is created.

【0036】図8及び図9に、研究計画審議資料を作成
するための文章を作成する例を示す。
FIG. 8 and FIG. 9 show an example of creating a sentence for creating a research plan discussion material.

【0037】図8では、「今年度の研究計画について、
開発」まで入力した段階で、「単語予測」を行うための
キーを押すと、その下の部分の単語予測結果が表示され
る。現在、その予測の第1位が「日程」であるため、
「日程」は、入力されるべき単語の候補として、本文中
にも表示されている。もし、次候補のキーを押すと、次
の予測候補である「予定」が「日程」と変わって表示さ
れる。取り消しキーが押されたなら、予測結果がすべて
消えて、通常の入力と同じになる。取り消し、次候補以
外のキーが入力されたなら、今表示されている予測単語
を確定し、予測結果は消去される。なお、「単語予測」
や「次候補」「予測取り消し」などのキーは独立してあ
る必要はなく、かな漢字変換の変換キーや取り消しキー
と併用してもかまわない。
In FIG. 8, "About the research plan of this year,
If you press the key for "Word Prediction" at the stage where "Development" has been entered, the word prediction result of the portion below it will be displayed. Currently, the number one forecast is "Schedule",
"Schedule" is also displayed in the text as a candidate for a word to be input. If the next candidate key is pressed, the next prediction candidate "plan" is displayed instead of "schedule". If the cancel key is pressed, all prediction results will be erased and will be the same as normal input. If it is canceled and a key other than the next candidate is input, the prediction word currently displayed is confirmed and the prediction result is erased. "Word prediction"
The keys such as "Next candidate" and "Predictive cancel" do not have to be independent, and may be used together with the conversion key for Kana-Kanji conversion or the cancel key.

【0038】図9では、図8と同じく、「今年度の研究
計画について、開発」まで入力され、さらに「も」とい
う一文字が入力された場合を示している。「も」が入力
されてから「単語予測」キーを押すと、「も」で始まる
単語のみが予測結果として表示される。これにより、よ
り正確な予測を行うことができる。勿論、単語予測キー
を押さなくても、予測結果を出すことも考えられる。こ
の場合、画面のどこかに、常時現在の予測候補が表示さ
れている。文字が入力されるたびに、その情報を用いて
予測候補が更新される。ユーザは、もし、候補の中に入
力したい単語があれば、それを選択することで、単語の
入力が可能となる。勿論、単語ではなく、例文を予測候
補として出すことも考えられる。
As in FIG. 8, FIG. 9 shows a case where “development about the research plan of this year” is input and one character “MO” is further input. If the "word prediction" key is pressed after "mo" is input, only words starting with "mo" are displayed as the prediction result. Thereby, more accurate prediction can be performed. Of course, it is also possible to output the prediction result without pressing the word prediction key. In this case, the current prediction candidate is always displayed somewhere on the screen. Each time a character is input, the information is used to update the prediction candidate. If there is a word to be input in the candidates, the user can input the word by selecting it. Of course, instead of words, it is possible to use example sentences as prediction candidates.

【0039】[0039]

【効果】本発明により、既に入力された文章から次に入
力される単語もしくは文節、文章を予測し、それをユー
ザに選択させることで、全ての文章を入力することな
く、選択操作のみだけで単語を入力でき、入力負荷を減
らすことが可能となる。
[Effect] According to the present invention, by predicting a word or a phrase or a sentence to be input next from an already input sentence and letting the user select it, only the selecting operation is required without inputting all the sentences. It is possible to input words and reduce the input load.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】意味辞書の例を示す図である。FIG. 2 is a diagram showing an example of a semantic dictionary.

【図3】文章の意味ベクトルの計算例を示す図である。FIG. 3 is a diagram showing an example of calculation of a semantic vector of a sentence.

【図4】意味ベクトルによる距離を示す図である。FIG. 4 is a diagram showing a distance according to a semantic vector.

【図5】本発明の別の実施例のブロック図である。FIG. 5 is a block diagram of another embodiment of the present invention.

【図6】意味辞書を作成する手段のブロック図である。FIG. 6 is a block diagram of means for creating a semantic dictionary.

【図7】意味辞書の作成を説明する概念図である。FIG. 7 is a conceptual diagram illustrating creation of a semantic dictionary.

【図8】本発明の実施例による表示例を示す図である。FIG. 8 is a diagram showing a display example according to an embodiment of the present invention.

【図9】本発明の別の実施例による表示例を示す図であ
る。
FIG. 9 is a diagram showing a display example according to another embodiment of the present invention.

【図10】本発明の文章入力装置の操作手順のフローを
説明する図である。
FIG. 10 is a diagram illustrating a flow of an operation procedure of the text input device of the present invention.

【符号の説明】[Explanation of symbols]

1 入力部 2 文章バッファ 3 意味ベクトル作成部 4 単語予測部 5 意味辞書 6 予測単語表示部 7 単語選択部 1 Input Section 2 Text Buffer 3 Semantic Vector Creation Section 4 Word Prediction Section 5 Semantic Dictionary 6 Predicted Word Display Section 7 Word Selection Section

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 文章を入力する入力手段と、入力された
文章を格納する文章バッファと、文章バッファに蓄えら
れた文章から文章の意味ベクトルを作成する意味ベクト
ル作成手段と、文章の意味ベクトルから次の単語を予測
する単語予測手段と、単語を予測するために使用する意
味辞書と、予測された単語を表示する予測単語表示手段
と、予測された複数の単語から一つを選択する単語選択
手段とを含むことを特徴とする文章入力装置。
1. An input unit for inputting a sentence, a sentence buffer for storing the inputted sentence, a meaning vector creating unit for creating a meaning vector of the sentence from the sentences stored in the sentence buffer, and a meaning vector for the sentence. A word prediction means for predicting the next word, a semantic dictionary used for predicting the word, a prediction word display means for displaying the predicted word, and a word selection for selecting one from a plurality of predicted words A text input device comprising means.
【請求項2】 単語予測手段が、文章の意味ベクトルと
意味辞書に記述された単語の意味ベクトルとの類似度を
比較して次の単語を選別する機能を具備していることを
特徴とする請求項1記載の文章入力装置。
2. The word predicting means has a function of selecting the next word by comparing the similarity between the meaning vector of the sentence and the meaning vector of the word described in the meaning dictionary. The text input device according to claim 1.
【請求項3】 単語予測手段が、単語を予測した後に入
力された文字の情報を用いて予測単語を絞り込む機能を
具備していることを特徴とする請求項1又は請求項2記
載の文章入力装置。
3. The text input according to claim 1 or 2, wherein the word predicting means has a function of narrowing down predicted words using information of characters input after predicting the words. apparatus.
JP6153494A 1994-03-30 1994-03-30 Document input device Pending JPH07271774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6153494A JPH07271774A (en) 1994-03-30 1994-03-30 Document input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6153494A JPH07271774A (en) 1994-03-30 1994-03-30 Document input device

Publications (1)

Publication Number Publication Date
JPH07271774A true JPH07271774A (en) 1995-10-20

Family

ID=13173875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6153494A Pending JPH07271774A (en) 1994-03-30 1994-03-30 Document input device

Country Status (1)

Country Link
JP (1) JPH07271774A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001027993A (en) * 1999-07-14 2001-01-30 Nippon Telegr & Teleph Corp <Ntt> Fashion estimation support method and device and storage medium storing fashion estimation support program
JP2009276818A (en) * 2008-05-12 2009-11-26 Omron Corp Character input program, character input device, and character input method
US7673236B2 (en) 2001-02-09 2010-03-02 Lx1 Technology Limited Method of inputting text into a data processing apparatus
US8738558B2 (en) 2006-12-21 2014-05-27 Support Machines Ltd. Method and computer program product for providing a response to a statement of a user
KR20150036671A (en) * 2012-07-20 2015-04-07 마이크로소프트 코포레이션 String predictions from buffer
CN110100244A (en) * 2016-10-18 2019-08-06 三星电子株式会社 Electronic device and its control method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001027993A (en) * 1999-07-14 2001-01-30 Nippon Telegr & Teleph Corp <Ntt> Fashion estimation support method and device and storage medium storing fashion estimation support program
US7673236B2 (en) 2001-02-09 2010-03-02 Lx1 Technology Limited Method of inputting text into a data processing apparatus
US8738558B2 (en) 2006-12-21 2014-05-27 Support Machines Ltd. Method and computer program product for providing a response to a statement of a user
US8924330B2 (en) 2006-12-21 2014-12-30 Support Machines Ltd. Method and computer program product for providing a response to a statement of a user
US9530098B2 (en) 2006-12-21 2016-12-27 Knapp Investment Company Limited Method and computer program product for providing a response to a statement of a user
JP2009276818A (en) * 2008-05-12 2009-11-26 Omron Corp Character input program, character input device, and character input method
JP4655109B2 (en) * 2008-05-12 2011-03-23 オムロン株式会社 CHARACTER INPUT PROGRAM, CHARACTER INPUT DEVICE, AND CHARACTER INPUT METHOD
US8307281B2 (en) 2008-05-12 2012-11-06 Omron Corporation Predicting conversion candidates based on the current context and the attributes of previously selected conversion candidates
KR20150036671A (en) * 2012-07-20 2015-04-07 마이크로소프트 코포레이션 String predictions from buffer
CN110100244A (en) * 2016-10-18 2019-08-06 三星电子株式会社 Electronic device and its control method
CN110100244B (en) * 2016-10-18 2023-08-01 三星电子株式会社 Electronic device and control method thereof

Similar Documents

Publication Publication Date Title
US5724457A (en) Character string input system
JP5462001B2 (en) Contextual input method
JPH10326275A (en) Method and device for morpheme analysis and method and device for japanese morpheme analysis
JPH07271774A (en) Document input device
JPH09114817A (en) Character input device
JPH07334499A (en) Input device for character string
JPH11238051A (en) Chinese input conversion processor, chinese input conversion processing method and recording medium stored with chinese input conversion processing program
JP3952964B2 (en) Reading information determination method, apparatus and program
JPH10269210A (en) Character input device
JPH08272780A (en) Processor and method for chinese input processing, and processor and method for language processing
JP2000048019A (en) Input prediction device, its method and recording medium recording input prediction program
JPH0380363A (en) Document processor
JPH06149790A (en) Document processor
JPH0154744B2 (en)
JP2802369B2 (en) Kana-Kanji conversion device
JPH09274613A (en) Character string predicting method and document preparing device using the same
JPH09179858A (en) Document preparation device and display method
JPH01114973A (en) Device for supporting document formation/calibration
JPH0421901B2 (en)
JP2004086449A (en) Chinese language phonetic orthography input device with comparison function for inputting imperfect or vague phonetic orthography
JPH1125083A (en) Kana/kanji converter and computer-readable storage medium
JPH0816572A (en) Automatic recognition system of alphanumerics/kana character
JPH0785026A (en) Method and device for revising dictionary
JPH0773174A (en) Processing system of japanese language
JPH07160700A (en) Method and device for processing document